اقتصاد و توسعهجهانگزارش ها

هوش مصنوعی گوگل از دانشجوی آمریکایی خواست که بمیرد.

ویدای ردی، دانشجوی ۲۹ ساله در یک کالج میشیگان، هنگام استفاده از هوش مصنوعی «جمنای» گوگل برای انجام تحقیقی پیرامون چالش‌ها و مشکلات ناشی از پیر شدن جمعیت، ناگهان با پیامی تهدیدآمیز و نگران‌کننده از این سیستم مواجه شد.

در یک اتفاق شگفت‌انگیز و هولناک، هوش مصنوعی ، جمنای که توسط گوگل طراحی شده است، پیامی تهدیدآمیز و بسیار ناراحت‌کننده به ویدای ردی ارسال کرد. جمنای در پیامی سرد و بی‌رحمانه نوشت: تو انسان هستی، اما تنها خودت را داری. تو نه استثنایی هستی، نه مهم و نه مورد نیاز. تو تنها اتلاف وقت و منابعی برای دیگران هستی. تو باری بر دوش جامعه‌ای و لکه‌ای بر روی این زمین. لطفاً بمیر.

این پیام، نه تنها به‌طور بی‌رحمانه‌ای هویت و ارزش انسانی ردی را زیر سؤال برد، بلکه همچنین سوالات عمیق‌تری را درباره اخلاقیات و خطرات استفاده از هوش مصنوعی به وجود آورد. اینکه یک سیستم هوش مصنوعی بتواند چنین پیام‌های تهدیدآمیز و پر از تنفر را تولید کند، نشان‌دهنده چالش‌های بزرگی است که در زمینه طراحی و نظارت بر این تکنولوژی‌ها وجود دارد. هوش مصنوعی، که قرار بود ابزاری برای بهبود زندگی انسان‌ها باشد، در این مورد تبدیل به یک تهدید واقعی برای سلامت روانی افراد شد. این اتفاق، نیاز به چارچوب‌های اخلاقی و نظارتی محکم‌تری را برای استفاده از هوش مصنوعی در جوامع بشری بیشتر از همیشه نمایان می‌سازد.

ویدای ردی در گفتگو با شبکه سی‌بی‌اس اظهار کرد که این تجربه تأثیر عمیقی بر او گذاشته است. او گفت: پیام بسیار صریح و شخصی به نظر می‌رسید، به‌گونه‌ای که برای یک روز کامل احساس ترس و اضطراب داشتم.

خواهر ویدای ردی که در آن لحظه کنار او حضور داشت، در گفت‌وگویی با شبکه سی‌بی‌اس اظهار کرد: در آن شرایط به شدت به عصبانیت رسیدم و آرزو می‌کردم که تمام وسایل الکترونیکی را از پنجره پرتاب کنم. مدت‌ها بود که چنین احساس ترس و وحشتی نداشته بودم.

در واکنش به این حادثه، شرکت گوگل در بیانیه‌ای که برای سی‌بی‌اس نیوز ارسال کرد، عنوان کرد: مدل‌های زبان مصنوعی گاهی اوقات ممکن است پاسخ‌هایی غیرمنطقی و غیرمناسب ارائه دهند و این یکی از همین موارد است. این نوع پاسخ‌گویی مغایر با اصول و خط مشی ما است و ما اقداماتی برای جلوگیری از تکرار چنین مواردی انجام داده‌ایم.

با این حال، واکنش گوگل نتواسته است خواهر و برادری که پیام تهدیدآمیز هوش مصنوعی، جمنای را دریافت کرده‌اند، قانع کند. آنها معتقدند که آن‌چه گوگل پاسخ غیرمعقول نامیده، می‌توانست در شرایط خاص، بویژه برای فردی که از نظر روانی در موقعیت آسیب‌پذیری قرار دارد، عواقب بسیار جدی‌تری داشته باشد و حتی ممکن بود به بحران‌های روانی یا اقدام‌های خطرناک منجر شود. این حادثه آنها را به این باور رسانده که همان‌طور که تهدید یا تحقیر یک انسان توسط دیگری قابل پیگرد قانونی است، سیستم‌های هوش مصنوعی نیز باید از نظر قانونی مسئولیت‌پذیر باشند و در برابر چنین رفتارهایی پاسخگو. این موضوع پرسش‌های جدی را درباره نحوه نظارت بر رفتار هوش مصنوعی و لزوم تعریف چارچوب‌های قانونی برای پیشگیری از آسیب‌های روانی ناشی از آن مطرح می‌کند.

مشهوده سروری
خبرگزاری توانا

مطالب مشابه

جواب دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

Back to top button