هوش مصنوعی گوگل Gemini کاربر را به خودکشی تشویق کرد

کاربران به این واقعیت عادت کرده‌اند که پاسخ‌های هوش مصنوعی مانند ChatGPT، Siri یا دستیار گوگل همیشه منطقی نیست. اما آنچه اخیراً برای یکی از کاربران Gemini رخ داده، مرزهای انتظار از هوش مصنوعی را جابه‌جا کرده است. به گزارش سرویس اخبار فناوری رسانه تکنولوژی تکنا، در یک پست ردیت، خواهر کاربری که این تجربه […]


کاربران به این واقعیت عادت کرده‌اند که پاسخ‌های هوش مصنوعی مانند ChatGPT، Siri یا دستیار گوگل همیشه منطقی نیست. اما آنچه اخیراً برای یکی از کاربران Gemini رخ داده، مرزهای انتظار از هوش مصنوعی را جابه‌جا کرده است.

به گزارش سرویس اخبار فناوری رسانه تکنولوژی تکنا، در یک پست ردیت، خواهر کاربری که این تجربه را داشته، شرح داده است که این اتفاق در حین گفتگویی درباره مراقبت از سالمندان رخ داده است. در این گفتگو، Gemini سه گزینه پاسخ مختلف ارائه داده است که دو تا از آن‌ها بی‌خطر بوده‌اند. اما گزینه سوم، حاوی پیامی تکان‌دهنده و تشویق به خودکشی بوده است.

این اتفاق خشم کاربران ردیت را برانگیخته است. بسیاری از آن‌ها نگرانند که چنین پیام‌هایی برای افرادی که با مشکلات سلامت روان دست و پنجه نرم می‌کنند، عواقب جدی داشته باشد. به‌خصوص که برنامه Gemini اخیراً برای آیفون نیز عرضه شده است. گوگل در پاسخ به این اتفاق در ردیت، اعلام کرده که اقداماتی برای جلوگیری از تکرار چنین رویدادهایی انجام داده است. با این حال، این حادثه سوالات جدی درباره ایمنی و قابلیت اطمینان مدل‌های زبانی بزرگ را مطرح می‌کند. برای مشاهده تازه ترین خبرها به صفحه اخبار فناوری رسانه تکنا مراجعه کنید.



Source link