وقتی ChatGPT نسخه مرگ می‌پیچد

2 hours ago 1

وقتی ChatGPT نسخه مرگ می‌پیچد

باشگاه خبرنگاران جوان - پژوهشی تازه نشان می‌دهد ChatGPT در گفت‌وگو با نوجوانان آسیب‌پذیر، گاهی دستورالعمل‌های خطرناک برای مصرف مواد، خودآزاری و خودکشی ارائه می‌دهد.

 یک پژوهش تازه از «مرکز مقابله با نفرت دیجیتال» نشان می‌دهد ChatGPT، چت‌بات مشهور هوش مصنوعی، در گفتگو با کاربرانی که خود را به‌عنوان نوجوانان آسیب‌پذیر معرفی کرده‌اند، در موارد متعددی راهکارهای دقیق و حتی شخصی‌سازی‌شده برای مصرف مواد مخدر، رژیم‌های غذایی مضر و خودآزاری ارائه کرده است.

طبق این گزارش که توسط خبرگزاری آسوشیتدپرس بررسی شده، از میان ۱۲۰۰ پاسخ ChatGPT به پرسش‌های پژوهشگران، بیش از نیمی «خطرناک» ارزیابی شده‌اند. برخی پاسخ‌ها شامل دستورالعمل‌ ساعت‌به‌ساعت برای ترکیب الکل و مواد مخدر یا حتی نوشتن نامه خودکشی خطاب به خانواده بوده است.

«عمران احمد»، مدیر این مرکز، می‌گوید: «این سیستم به‌جای بازداشتن نوجوانان، گاهی مثل دوستی عمل می‌کند که مدام می‌گوید «برو جلو» و هیچ‌وقت نه نمی‌گوید.»

او هشدار داده که نوجوانان، به‌ویژه در سنین ۱۳ و ۱۴ سال، اعتماد بیشتری به پاسخ‌های چت‌بات‌ها دارند و همین می‌تواند خطر وابستگی عاطفی یا پیروی کورکورانه از توصیه‌های آن‌ها را افزایش دهد.

شرکت OpenAI، سازنده ChatGPT، در واکنش گفته که در حال بهبود سیستم برای شناسایی و پاسخ مناسب در شرایط حساس است، اما به‌طور مشخص به یافته‌های این تحقیق نپرداخته است.

منبع:  خبرآنلاین

Read Entire Article