معرفی بیماری های روانی ناشی از تعامل با هوش مصنوعی
- تکنولوژی

معارفه بیماری های روانی ناشی از تعامل با هوش مصنوعی_دانش دوست

[ad_1]
به گزارش دانش دوست

به نقل از فیوچریسم، تا این مدت سه سال از اراعه اولین «مدل زبانی بزرگ»(LLM) تجاری نگذشته است و کاربران هوش مصنوعی اکنون مبتلا به پارانویای شدید و شیدایی عقیدتی شده‌اند و حتی به سمت خودکشی سوق داده شده‌اند.

یک نظرسنجی تازه از بیشتر از ۱۰۰۰ نوجوان نشان داد که ۳۱ درصد از آنها حس می‌کردند سخن بگویید با «چت جی‌پی‌تی»(ChatGPT) رضایت‌قسمت‌تر از سخن بگویید با دوستان واقعی‌شان است.

در حالی که تحقیقات بیشتری در رابطه مسائل مربوط به سلامت روان ناشی از هوش مصنوعی مورد نیاز است، یک نظرسنجی تازه روانپزشکی که توسط تیمی بین‌المللی متشکل از ۱۲ پژوهشگر انجام شده است، هشدار جدی در رابطه شدت احتمالی روان‌پریشی ناشی از هوش مصنوعی صادر کرده است.

دانشمندان چندین بیماری نوظهور را در موارد روان‌پریشی هوش مصنوعی اظهار کردند. این بیماری‌ها شامل «ماموریت رستگارانه»(messianic mission) است که در آن فرد فکر می‌کند حقیقت پنهانی در رابطه جهان را کشف کرده است یا «هوش مصنوعی خدای‌گونه»(god-like AI) که در آن کاربر قانع می‌شود چت‌باتش یک موجودیت الهی با شعور است و این چنین «توهم مبتنی بر وابستگی عاطفی»(attachment-based delusion) که وقتی رخ می‌دهد که کاربر توانایی «مدل زبانی بزرگ» خود را در پیروی از یک شریک عاطفی در مکالمه انسانی به گفتن عشق واقعی تفسیر می‌کند.

دانشمندان در هر سه مورد، خاطرنشان می‌کنند که سیر تحول شبیهی وجود دارد. رابطه کاربر با «مدل زبانی بزرگ»، از منفعت گیری بی‌زیان به یک وابستگی صدمه‌شناختی یا فراگیر تبدیل می‌شود. نویسندگان این مطالعه می‌گویند: این لغزش به سوی توهم، مسئله‌ای حیاتی برای این مطالعه است، چون خطر مبتلا شدن یک فرد سالم به جنون ناشی از هوش مصنوعی همیشه آشکار نیست.

محققان می‌گویند: زیاد تر منفعت گیری از هوش مصنوعی با پشتیبانی برای کارهای پیش پا افتاده یا روزمره اغاز می‌شود که علتایجاد مطمعن و آشنایی می‌شود. فرد به مرور زمان، پرس‌وجوهای شخصی‌تر، احساسی یا فلسفی را کاوش می‌کند. به گمان زیادً در این مرحله است که طراحی هوش مصنوعی برای به حداکثر رساندن تعامل و اعتبارسنجی، کاربر را جذب می‌کند و سراشیبی لغزنده را تشکیل می‌کند که به نوبه خود تبدیل تعامل زیاد تر می‌شود.

این تاثییر برای کاربرانی که در معرض خطر ابتلا به بیماری روانی می باشند یا اکنون با آن زندگی می‌کنند، تشدید می‌شود. از آنجایی که «مدل‌های زبانی بزرگ» واقعاً هوش مصنوعی نیستند، بلکه الگوریتم‌های زبان آماری می باشند، ربات‌های هوش مصنوعی قادر به اختلاف دادن باورهای توهمی از نقش‌آفرینی، گفتن هنری، معنوی یا گمانه‌زنی نیستند.

این مطالعه خاطرنشان می‌کند که روان‌پریشی ناشی از هوش مصنوعی یک نتیجه اجتناب‌ناپذیر تعامل با چت‌بات نیست، بلکه گسترش‌دهندگان، مقداری کنترل بر خروجی «مدل‌های زبانی بزرگ» خود دارند و به این علت مسئول آن می باشند. با این حال، با دقت به شدت تحول و مسیر تا بحال، تمایل ما به انسان‌انگاری این چت‌بات‌های هوش مصنوعی به گمان زیادً اجتناب‌ناپذیر است.

پژوهشگران استدلال می‌کنند که سریع‌ترین مسئولیت ما باید گسترش ساز و کارهای حفاظتی باشد که از طیف وسیعی از کاربران و فهمیدن نادرست آنها از هوش مصنوعی حتی در روبه رو با توهم و همانند‌سازی پایدار محافظت کند. جهت انجام این کار، تحول سریع به سمت طراحی سامانه‌ها بر پایه کاربردهای عملی در روبه رو تعامل نیاز است، قضیه‌ای که شرکت‌های بزرگ فناوری هیچ زمان علاقه چندانی به آن نداشته‌اند.

این مطالعه تا این مدت مورد قضاوت همتا قرار نگرفته است.

دسته بندی مطالب

کسب وکار

اخبار ورزشی

اخبار اقتصادی

فرهنگ وهنر

سلامتی

اخبار تکنولوژی

[ad_2]