هوش مصنوعی گوگل از دانشجوی آمریکایی خواست که بمیرد.
ویدای ردی، دانشجوی ۲۹ ساله در یک کالج میشیگان، هنگام استفاده از هوش مصنوعی «جمنای» گوگل برای انجام تحقیقی پیرامون چالشها و مشکلات ناشی از پیر شدن جمعیت، ناگهان با پیامی تهدیدآمیز و نگرانکننده از این سیستم مواجه شد.
در یک اتفاق شگفتانگیز و هولناک، هوش مصنوعی ، جمنای که توسط گوگل طراحی شده است، پیامی تهدیدآمیز و بسیار ناراحتکننده به ویدای ردی ارسال کرد. جمنای در پیامی سرد و بیرحمانه نوشت: تو انسان هستی، اما تنها خودت را داری. تو نه استثنایی هستی، نه مهم و نه مورد نیاز. تو تنها اتلاف وقت و منابعی برای دیگران هستی. تو باری بر دوش جامعهای و لکهای بر روی این زمین. لطفاً بمیر.
این پیام، نه تنها بهطور بیرحمانهای هویت و ارزش انسانی ردی را زیر سؤال برد، بلکه همچنین سوالات عمیقتری را درباره اخلاقیات و خطرات استفاده از هوش مصنوعی به وجود آورد. اینکه یک سیستم هوش مصنوعی بتواند چنین پیامهای تهدیدآمیز و پر از تنفر را تولید کند، نشاندهنده چالشهای بزرگی است که در زمینه طراحی و نظارت بر این تکنولوژیها وجود دارد. هوش مصنوعی، که قرار بود ابزاری برای بهبود زندگی انسانها باشد، در این مورد تبدیل به یک تهدید واقعی برای سلامت روانی افراد شد. این اتفاق، نیاز به چارچوبهای اخلاقی و نظارتی محکمتری را برای استفاده از هوش مصنوعی در جوامع بشری بیشتر از همیشه نمایان میسازد.
ویدای ردی در گفتگو با شبکه سیبیاس اظهار کرد که این تجربه تأثیر عمیقی بر او گذاشته است. او گفت: پیام بسیار صریح و شخصی به نظر میرسید، بهگونهای که برای یک روز کامل احساس ترس و اضطراب داشتم.
خواهر ویدای ردی که در آن لحظه کنار او حضور داشت، در گفتوگویی با شبکه سیبیاس اظهار کرد: در آن شرایط به شدت به عصبانیت رسیدم و آرزو میکردم که تمام وسایل الکترونیکی را از پنجره پرتاب کنم. مدتها بود که چنین احساس ترس و وحشتی نداشته بودم.
در واکنش به این حادثه، شرکت گوگل در بیانیهای که برای سیبیاس نیوز ارسال کرد، عنوان کرد: مدلهای زبان مصنوعی گاهی اوقات ممکن است پاسخهایی غیرمنطقی و غیرمناسب ارائه دهند و این یکی از همین موارد است. این نوع پاسخگویی مغایر با اصول و خط مشی ما است و ما اقداماتی برای جلوگیری از تکرار چنین مواردی انجام دادهایم.
با این حال، واکنش گوگل نتواسته است خواهر و برادری که پیام تهدیدآمیز هوش مصنوعی، جمنای را دریافت کردهاند، قانع کند. آنها معتقدند که آنچه گوگل پاسخ غیرمعقول نامیده، میتوانست در شرایط خاص، بویژه برای فردی که از نظر روانی در موقعیت آسیبپذیری قرار دارد، عواقب بسیار جدیتری داشته باشد و حتی ممکن بود به بحرانهای روانی یا اقدامهای خطرناک منجر شود. این حادثه آنها را به این باور رسانده که همانطور که تهدید یا تحقیر یک انسان توسط دیگری قابل پیگرد قانونی است، سیستمهای هوش مصنوعی نیز باید از نظر قانونی مسئولیتپذیر باشند و در برابر چنین رفتارهایی پاسخگو. این موضوع پرسشهای جدی را درباره نحوه نظارت بر رفتار هوش مصنوعی و لزوم تعریف چارچوبهای قانونی برای پیشگیری از آسیبهای روانی ناشی از آن مطرح میکند.
مشهوده سروری
خبرگزاری توانا