نام کاربری یا نشانی ایمیل
رمز عبور
مرا به خاطر بسپار
شرکت OpenAI در حال تأمین منابع مالی پروژهای است که درباره اخلاق در سیستمهای هوش مصنوعی تحقیق میکند. به گزارش تکناک، OpenAI با اختصاص کمکهزینه مالی به پروژهای تحقیقاتی، گامی تازه در مسیر بررسی اخلاق در سیستمهای هوش مصنوعی (AI) برداشته است. براساس اسناد سازمان مالیاتی ایالات متحده (IRS)، این کمکهزینه به پژوهشگرانی از دانشگاه […]
شرکت OpenAI در حال تأمین منابع مالی پروژهای است که درباره اخلاق در سیستمهای هوش مصنوعی تحقیق میکند.
به گزارش تکناک، OpenAI با اختصاص کمکهزینه مالی به پروژهای تحقیقاتی، گامی تازه در مسیر بررسی اخلاق در سیستمهای هوش مصنوعی (AI) برداشته است. براساس اسناد سازمان مالیاتی ایالات متحده (IRS)، این کمکهزینه به پژوهشگرانی از دانشگاه Duke برای پروژهای با عنوان «تحقیق درباره اخلاق AI» اعطا شده است. این پروژه بخشی از برنامهای سهساله با بودجه یک میلیون دلار است که هدف آن یافتن راهکارهایی برای ارتقای آگاهی اخلاقی در هوش مصنوعی است.
نئووین مینویسد که رهبری این پروژه برعهده Walter Sinnott-Armstrong، استاد مشهور در حوزه اخلاق عملی و Jana Schaich Borg، یکی از پژوهشگران پیشگام درزمینه تصمیمگیریهای اخلاقی با هوش مصنوعی است. Sinnott-Armstrong یکی از چهرههای برجسته فلسفه است که در حوزههایی نظیر اخلاق کاربردی و روانشناسی اخلاقی و علوم اعصاب فعالیت میکند. تیم او در دانشگاه Duke تاکنون در پروژههای مهمی نظیر طراحی الگوریتمهای تخصیص منصفانه پیوند اعضا مشارکت کردهاند. این الگوریتمها با استفاده از دیدگاههای عمومی و کارشناسی تلاش میکنند تا عدالت در این نوع تصمیمگیریها را بهبود بخشند.
هدف اصلی این پروژه طراحی الگوریتمهایی است که بتوانند قضاوتهای اخلاقی انسان را در حوزههایی نظیر پزشکی و حقوق و تجارت پیشبینی کنند. بااینحال، مشکلات فراوانی در این مسیر وجود دارد. تجربیات گذشته نشان داده است که توسعه چنین الگوریتمهایی بهدلیل پیچیدگیهای اخلاقی و فرهنگی بسیار دشوار است. برای نمونه، پروژه Ask Delphi که Allen Institute for AI اجرا کرد، نشان داد که حتی در مواجهه با معضلات ساده اخلاقی، سیستمها ممکن است با تغییرات جزئی در سؤالات، جوابهای اخلاقی مشکوک ارائه دهند.
یکی از مسائل اساسی در این مسیر، نحوه عملکرد مدلهای یادگیری ماشین است که براساس دادههای آموزشی خود تصمیمگیری میکنند. این دادهها اغلب بازتابدهنده تعصبات و محدودیتهای فرهنگهای غالب هستند. این موضوع سؤالات جدی را درباره توانایی هوش مصنوعی در دستیابی به تصمیمات اخلاقی واقعی مطرح میکند؛ بهویژه با توجه به اینکه اخلاق در جوامع مختلف متنوع است و چهارچوبهای جهانی پذیرفتنی برای آن وجود ندارد.
اینکه آیا هوش مصنوعی میتواند بهطور معناداری با ارزشهای انسانی هماهنگ شود یا حتی باید چنین هدفی را دنبال کند، همچنان بهعنوان پرسشی بیپاسخ باقی مانده است. بااینهمه درصورت موفقیت این پروژه، نتایج آن میتواند تأثیرات عمیقی بر نحوه اعتماد به ماشینها در تصمیمگیریهای اخلاقی بگذارد.
نتایج این پروژه قرار است تا سال ۲۰۲۵، یعنی پایان دوره این کمکهزینه، مشخص شود. جامعه علمی با اشتیاق منتظر است تا ببیند آیا این تحقیقات میتواند درزمینه دستیابی به «هوش مصنوعی اخلاقی» پیشرفتهای چشمگیری به ارمغان بیاورد یا خیر.
منبع: تکنک
این مطلب بدون برچسب می باشد.
قطعا بیشتر افراد جامعه به دنبال خرید کالاهای مورد نیاز خود در این روز هستند، حتی برخی افراد کالای مورد نیاز یک سال خود را در بلک فرایدی خریداری میکنند، زیرا معتقدند که چنین فرصتی بسیار ارزشمند و غیر قابل تکرار است. با توجه به حجم بالای متقاضیان خرید در این روز و محدودیت اجناس […]
دونالد ترامپ، رئیسجمهور منتخب ایالات متحده، «اسکات بسنت»، مدیر صندوق پوشش ریسک و علاقهمند به ارزهای دیجیتال را بهعنوان گزینه خود برای وزارت خزانهداری معرفی کرده است. بهگزارش تکناک، اگر سنا اسکات بسنت را تأیید کند، امضای بعدی که روی اسکناسهای ایالات متحده نقش میبندد، متعلق به فردی است که طرفدار اکوسیستم ارزهای دیجیتال است؛ […]
در اوایل این هفته، گوگل اولین نسخه پیشنمایش توسعهدهنده اندروید ۱۶ را منتشر کرد. کارشناسان حین بررسی این نسخه، نکات جالب توجهی را کشف کردهاند که نویدبخش آیندهای بسیار کاربردیتر برای دستیار هوش مصنوعی گوگل، جِمینای، است. به گزارش سرویس اخبار فناوری رسانه تکنولوژی تکنا، میشال رحمان، در وبسایت Android Authority، به بررسی یک API […]
بنابر گزارش رویترز، شرکت هواوی با وجود تحریمهای ایالات متحده، همچنان به پیشرفت و توسعهی فناوریهای خود ادامه میدهد. یکی از پروژههای مهم این غول فناوری چینی، سیستمعامل HarmonyOS محسوب میشود که بهعنوان جایگزینی برای اندروید توسعه یافته است. هواوی با اعلام هدف بلندپروازانهی خود برای رسیدن به تعداد ۱۰۰ هزار اپلیکیشن در اکوسیستم HarmonyOS […]