[ad_1]
به گزارش دانش دوست
به نقل از فیوچریسم، تا این مدت سه سال از اراعه اولین «مدل زبانی بزرگ»(LLM) تجاری نگذشته است و کاربران هوش مصنوعی اکنون مبتلا به پارانویای شدید و شیدایی عقیدتی شدهاند و حتی به سمت خودکشی سوق داده شدهاند.
یک نظرسنجی تازه از بیشتر از ۱۰۰۰ نوجوان نشان داد که ۳۱ درصد از آنها حس میکردند سخن بگویید با «چت جیپیتی»(ChatGPT) رضایتقسمتتر از سخن بگویید با دوستان واقعیشان است.
در حالی که تحقیقات بیشتری در رابطه مسائل مربوط به سلامت روان ناشی از هوش مصنوعی مورد نیاز است، یک نظرسنجی تازه روانپزشکی که توسط تیمی بینالمللی متشکل از ۱۲ پژوهشگر انجام شده است، هشدار جدی در رابطه شدت احتمالی روانپریشی ناشی از هوش مصنوعی صادر کرده است.
دانشمندان چندین بیماری نوظهور را در موارد روانپریشی هوش مصنوعی اظهار کردند. این بیماریها شامل «ماموریت رستگارانه»(messianic mission) است که در آن فرد فکر میکند حقیقت پنهانی در رابطه جهان را کشف کرده است یا «هوش مصنوعی خدایگونه»(god-like AI) که در آن کاربر قانع میشود چتباتش یک موجودیت الهی با شعور است و این چنین «توهم مبتنی بر وابستگی عاطفی»(attachment-based delusion) که وقتی رخ میدهد که کاربر توانایی «مدل زبانی بزرگ» خود را در پیروی از یک شریک عاطفی در مکالمه انسانی به گفتن عشق واقعی تفسیر میکند.
دانشمندان در هر سه مورد، خاطرنشان میکنند که سیر تحول شبیهی وجود دارد. رابطه کاربر با «مدل زبانی بزرگ»، از منفعت گیری بیزیان به یک وابستگی صدمهشناختی یا فراگیر تبدیل میشود. نویسندگان این مطالعه میگویند: این لغزش به سوی توهم، مسئلهای حیاتی برای این مطالعه است، چون خطر مبتلا شدن یک فرد سالم به جنون ناشی از هوش مصنوعی همیشه آشکار نیست.
محققان میگویند: زیاد تر منفعت گیری از هوش مصنوعی با پشتیبانی برای کارهای پیش پا افتاده یا روزمره اغاز میشود که علتایجاد مطمعن و آشنایی میشود. فرد به مرور زمان، پرسوجوهای شخصیتر، احساسی یا فلسفی را کاوش میکند. به گمان زیادً در این مرحله است که طراحی هوش مصنوعی برای به حداکثر رساندن تعامل و اعتبارسنجی، کاربر را جذب میکند و سراشیبی لغزنده را تشکیل میکند که به نوبه خود تبدیل تعامل زیاد تر میشود.
این تاثییر برای کاربرانی که در معرض خطر ابتلا به بیماری روانی می باشند یا اکنون با آن زندگی میکنند، تشدید میشود. از آنجایی که «مدلهای زبانی بزرگ» واقعاً هوش مصنوعی نیستند، بلکه الگوریتمهای زبان آماری می باشند، رباتهای هوش مصنوعی قادر به اختلاف دادن باورهای توهمی از نقشآفرینی، گفتن هنری، معنوی یا گمانهزنی نیستند.
این مطالعه خاطرنشان میکند که روانپریشی ناشی از هوش مصنوعی یک نتیجه اجتنابناپذیر تعامل با چتبات نیست، بلکه گسترشدهندگان، مقداری کنترل بر خروجی «مدلهای زبانی بزرگ» خود دارند و به این علت مسئول آن می باشند. با این حال، با دقت به شدت تحول و مسیر تا بحال، تمایل ما به انسانانگاری این چتباتهای هوش مصنوعی به گمان زیادً اجتنابناپذیر است.
پژوهشگران استدلال میکنند که سریعترین مسئولیت ما باید گسترش ساز و کارهای حفاظتی باشد که از طیف وسیعی از کاربران و فهمیدن نادرست آنها از هوش مصنوعی حتی در روبه رو با توهم و همانندسازی پایدار محافظت کند. جهت انجام این کار، تحول سریع به سمت طراحی سامانهها بر پایه کاربردهای عملی در روبه رو تعامل نیاز است، قضیهای که شرکتهای بزرگ فناوری هیچ زمان علاقه چندانی به آن نداشتهاند.
این مطالعه تا این مدت مورد قضاوت همتا قرار نگرفته است.
دسته بندی مطالب
[ad_2]





