حمایت مالی «اوپن‌آی‌آی» از پژوهش در زمینه اخلاق هوش مصنوعی

شرکت «اوپن‌آی‌آی» به حمایت مالی از پژوهش‌های دانشگاهی درباره الگوریتم‌های هوش مصنوعی می‌پردازد که می‌توانند قضاوت‌های اخلاقی انسان‌ها را پیش‌بینی کنند. به گزارش ایسنا، شرکت «اوپن‌آی‌آی»(OpenAI) فاش کرد که برای یک پروژه با عنوان «پژوهش اخلاق هوش مصنوعی»(Research AI Morality) به پژوهشگران «دانشگاه دوک»(Duke University) کمک مالی اعطا کرده است. به نقل از تک کرانچ، […]



شرکت «اوپن‌آی‌آی» به حمایت مالی از پژوهش‌های دانشگاهی درباره الگوریتم‌های هوش مصنوعی می‌پردازد که می‌توانند قضاوت‌های اخلاقی انسان‌ها را پیش‌بینی کنند.

به گزارش ایسنا، شرکت «اوپن‌آی‌آی»(OpenAI) فاش کرد که برای یک پروژه با عنوان «پژوهش اخلاق هوش مصنوعی»(Research AI Morality) به پژوهشگران «دانشگاه دوک»(Duke University) کمک مالی اعطا کرده است.

به نقل از تک کرانچ، سخنگوی اوپن‌آی‌آی به یک بیانیه‌ مطبوعاتی اشاره کرد که نشان می‌دهد اعطای این بودجه، بخشی از یک کمک مالی بزرگتر به مدت سه‌ سال و مبلغ یک میلیون دلار به اساتید دانشگاه دوک برای ساخت هوش مصنوعی اخلاقی است.

اطلاعات کمی درباره این تحقیقات تحت سرمایه‌گذاری اوپن‌آی‌آی وجود دارد. فقط مشخص است که کمک مالی این شرکت در سال ۲۰۲۵ به پایان خواهد رسید. «والتر سینوت آرمسترانگ»(Walter Sinnott-Armstrong) استاد اخلاق عملی دانشگاه دوک و پژوهشگر ارشد این پروژه، از طریق ایمیل به تک کرانچ گفت که نمی‌تواند درباره این پروژه صحبت کند.

آرمسترانگ و «جانا بورگ»(Jana Borg) از پژوهشگران این پروژه، چندین مقاله و یک کتاب را درباره پتانسیل هوش مصنوعی برای خدمت به عنوان یک GPS اخلاقی به منظور کمک کردن به انسان در قضاوت بهتر تهیه کرده‌اند. آنها به عنوان بخشی از گروه‌های بزرگ‌تر، یک الگوریتم اخلاقی هم‌سو را ایجاد کرده‌اند و به بررسی این موضوع پرداخته‌اند که افراد در چه شرایطی ترجیح می‌دهند هوش مصنوعی تصمیمات اخلاقی بگیرد.

براساس بیانیه مطبوعاتی، هدف از پژوهش با بودجه اوپن‌ای‌آی، آموزش الگوریتم‌ها برای پیش‌بینی قضاوت‌های اخلاقی انسان در شرایطی است که تضاد را بین ویژگی‌های اخلاقی مرتبط در پزشکی، حقوق و تجارت شامل می‌شود اما مشخص نیست که مفهوم ارائه‌شده، ظرافت اخلاقیات انسان را داشته باشد.

الگوریتمی که برای پیش‌بینی قضاوت‌های اخلاقی انسان‌ها طراحی می‌شود، باید همه این‌ موضوعات را در نظر بگیرد.

انتهای پیام



Source link