نام کاربری یا نشانی ایمیل
رمز عبور
مرا به خاطر بسپار
شرکت OpenAI در حال تأمین منابع مالی پروژهای است که درباره اخلاق در سیستمهای هوش مصنوعی تحقیق میکند. به گزارش تکناک، OpenAI با اختصاص کمکهزینه مالی به پروژهای تحقیقاتی، گامی تازه در مسیر بررسی اخلاق در سیستمهای هوش مصنوعی (AI) برداشته است. براساس اسناد سازمان مالیاتی ایالات متحده (IRS)، این کمکهزینه به پژوهشگرانی از دانشگاه […]
شرکت OpenAI در حال تأمین منابع مالی پروژهای است که درباره اخلاق در سیستمهای هوش مصنوعی تحقیق میکند.
به گزارش تکناک، OpenAI با اختصاص کمکهزینه مالی به پروژهای تحقیقاتی، گامی تازه در مسیر بررسی اخلاق در سیستمهای هوش مصنوعی (AI) برداشته است. براساس اسناد سازمان مالیاتی ایالات متحده (IRS)، این کمکهزینه به پژوهشگرانی از دانشگاه Duke برای پروژهای با عنوان «تحقیق درباره اخلاق AI» اعطا شده است. این پروژه بخشی از برنامهای سهساله با بودجه یک میلیون دلار است که هدف آن یافتن راهکارهایی برای ارتقای آگاهی اخلاقی در هوش مصنوعی است.
نئووین مینویسد که رهبری این پروژه برعهده Walter Sinnott-Armstrong، استاد مشهور در حوزه اخلاق عملی و Jana Schaich Borg، یکی از پژوهشگران پیشگام درزمینه تصمیمگیریهای اخلاقی با هوش مصنوعی است. Sinnott-Armstrong یکی از چهرههای برجسته فلسفه است که در حوزههایی نظیر اخلاق کاربردی و روانشناسی اخلاقی و علوم اعصاب فعالیت میکند. تیم او در دانشگاه Duke تاکنون در پروژههای مهمی نظیر طراحی الگوریتمهای تخصیص منصفانه پیوند اعضا مشارکت کردهاند. این الگوریتمها با استفاده از دیدگاههای عمومی و کارشناسی تلاش میکنند تا عدالت در این نوع تصمیمگیریها را بهبود بخشند.
هدف اصلی این پروژه طراحی الگوریتمهایی است که بتوانند قضاوتهای اخلاقی انسان را در حوزههایی نظیر پزشکی و حقوق و تجارت پیشبینی کنند. بااینحال، مشکلات فراوانی در این مسیر وجود دارد. تجربیات گذشته نشان داده است که توسعه چنین الگوریتمهایی بهدلیل پیچیدگیهای اخلاقی و فرهنگی بسیار دشوار است. برای نمونه، پروژه Ask Delphi که Allen Institute for AI اجرا کرد، نشان داد که حتی در مواجهه با معضلات ساده اخلاقی، سیستمها ممکن است با تغییرات جزئی در سؤالات، جوابهای اخلاقی مشکوک ارائه دهند.
یکی از مسائل اساسی در این مسیر، نحوه عملکرد مدلهای یادگیری ماشین است که براساس دادههای آموزشی خود تصمیمگیری میکنند. این دادهها اغلب بازتابدهنده تعصبات و محدودیتهای فرهنگهای غالب هستند. این موضوع سؤالات جدی را درباره توانایی هوش مصنوعی در دستیابی به تصمیمات اخلاقی واقعی مطرح میکند؛ بهویژه با توجه به اینکه اخلاق در جوامع مختلف متنوع است و چهارچوبهای جهانی پذیرفتنی برای آن وجود ندارد.
اینکه آیا هوش مصنوعی میتواند بهطور معناداری با ارزشهای انسانی هماهنگ شود یا حتی باید چنین هدفی را دنبال کند، همچنان بهعنوان پرسشی بیپاسخ باقی مانده است. بااینهمه درصورت موفقیت این پروژه، نتایج آن میتواند تأثیرات عمیقی بر نحوه اعتماد به ماشینها در تصمیمگیریهای اخلاقی بگذارد.
نتایج این پروژه قرار است تا سال ۲۰۲۵، یعنی پایان دوره این کمکهزینه، مشخص شود. جامعه علمی با اشتیاق منتظر است تا ببیند آیا این تحقیقات میتواند درزمینه دستیابی به «هوش مصنوعی اخلاقی» پیشرفتهای چشمگیری به ارمغان بیاورد یا خیر.
منبع: تکنک
این مطلب بدون برچسب می باشد.
تراشه گرافیکی GB202 که قرار است در کارت گرافیک RTX 5090 استفاده شود، بزرگترین تراشه دسکتاپ انویدیا از سال ۲۰۱۸ تاکنون خواهد بود. به گزارش تکناک، انویدیا قصد دارد با عرضه کارت گرافیک جدید RTX 5090، رکوردی جدید در ابعاد تراشههای گرافیکی دسکتاپ ثبت کند. براساس گزارش منابع معتبر، تراشه گرافیکی GB202 در این کارت […]
دیوار با معرفی «پیشنهاد هوشمند آگهی»، تجربه جدیدی در خرید و فروش آنلاین ایجاد کرده است. این قابلیت که در شهرهای بزرگ فعال شده، با استفاده از هوش مصنوعی، آگهیهای مرتبط با نیاز کاربران را به صورت خودکار نمایش میدهد و باعث کاهش ۲۰ درصدی زمان جستجوی کاربران میشود. شاید برای شما هم پیش آمده […]
لینکدین تصمیم گرفته است که قابلیت Audio Events را غیرفعال کند. این تالار ویژگیهای شبیه به شبکه اجتماعی کلابهاوس ارائه میداد. به گزارش تکناک، لینکدین اعلام کرده است که قابلیت رویدادهای صوتی الهامگرفته از کلابهاوس با نام Audio Events، از ۲ دسامبر ۲۰۲۴ متوقف خواهد شد. پساز این تاریخ، کاربران دیگر نمیتوانند رویدادهای جدید صوتی […]
تراشهی Exynos 2600 که زمانی گفته میشد جهش بزرگی در عملکرد گوشیهای سامسونگ بههمراه میآورد، شاید هرگز به مرحلهی تولید نرسد. گزارش منبعی آگاه در ایکس نشان میدهد که کرهایها به دلیل مشکلات لیتوگرافی دو نانومتری خود، احتمالاً تولید اگزینوس ۲۶۰۰ را لغو خواهند کرد. انتظار میرفت که اگزینوس ۲۶۰۰ از لیتوگرافی پیشرفتهی دو نانومتری […]