نام کاربری یا نشانی ایمیل
رمز عبور
مرا به خاطر بسپار
[ad_1] به گزارش خبرگزاری خبرآنلاین و براساس گزارش گجتنیوز، دانشمندان میگویند هوش مصنوعی (AI) از یک «خط قرمز» بحرانی عبور کرده و توانسته است خود را شبیه سازی کند. در یک مطالعه جدید، پژوهشگران چینی نشان دادند که دو مدل زبانی بزرگ محبوب (LLM) موفق شدهاند خود را شبیه سازی کنند. دانشمندان در مطالعهای که تاریخ ۹ دسامبر […]
[ad_1]
به گزارش خبرگزاری خبرآنلاین و براساس گزارش گجتنیوز، دانشمندان میگویند هوش مصنوعی (AI) از یک «خط قرمز» بحرانی عبور کرده و توانسته است خود را شبیه سازی کند. در یک مطالعه جدید، پژوهشگران چینی نشان دادند که دو مدل زبانی بزرگ محبوب (LLM) موفق شدهاند خود را شبیه سازی کنند.
دانشمندان در مطالعهای که تاریخ ۹ دسامبر ۲۰۲۴ پایگاه arXiv منتشر کرد، نوشتند:«تکثیر موفق و بدون دخالت انسانی، گام اساسی برای هوش مصنوعی به منظور پیشی گرفتن از [انسانها] است و همچنین یک نشانه اولیه برای هوش مصنوعی سرکش محسوب میشود.»
در این مطالعه، پژوهشگران دانشگاه فودان از مدلهای زبانی بزرگ (LLM) متعلق به شرکتهای متا و علی بابا استفاده کردند تا بررسی کنند آیا یک هوش مصنوعی خود تکثیر کننده میتواند بدون کنترل تکثیر شود یا خیر. در طی ۱۰ آزمایش، این دو مدل هوش مصنوعی در ۵۰% و ۹۰% موارد به ترتیب نمونههای جداگانه و عملکردی از خود ایجاد کردند. یافتهها نشان میدهند هوش مصنوعی ممکن است از همین حالا هم توانایی سرکش شدن را داشته باشد.
با این حال، هنوز همتایان علمی این مطالعه را تحت بررسی بیشتر قرار ندادهاند. به همین خاطر مشخص نیست که آیا نتایج نگران کننده آن توسط دیگر پژوهشگران قابل تکرار خواهد بود یا خیر.
امیدواریم که یافتههای ما به عنوان یک هشدار به موقع برای جامعه انسانی عمل کند تا تلاش بیشتری برای درک و ارزیابی خطرات بالقوه سیستمهای پیشرفته هوش مصنوعی انجام شود. علاوه بر این، همافزایی بینالمللی برای تدوین اقدامات ایمنی مؤثر در اسرع وقت شکل بگیرد.
هوش مصنوعی سرکش را معمولا به نوعی از سیستمهای هوش مصنوعی اطلاق میکنند که به درجهای از خودآگاهی یا استقلال دست مییابند و سپس برخلاف منافع انسانی عمل میکنند.
بسیاری از کارشناسان هوش مصنوعی سرکش را به عنوان تهدیدی در حال رشد میبینند که با رشد انفجاری آنچه به عنوان «هوش مصنوعی پیشرفته» شناخته میشود، تشدید شده است.
هوش مصنوعی پیشرفته یک مفهوم جدید و نسبتا گسترده است، اما معمولا به نسل جدید سیستمهای هوش مصنوعی اشاره دارد که از مدلهای زبانی بزرگ (LLM) قدرت میگیرند. این مدل زبانی نوعی معماری است که برنامههای محبوب هوش مصنوعی مولد مانند GPT-۴ شرکت OpenAI و Google Gemini را بر اساس آن طراحی کردهاند.
در مطالعه مذکور، پژوهشگران از مدل Llama۳۱-۷۰B-Instruct شرکت متا و مدل Qwen۲.۵-۷۲B-Instruct شرکت علی بابا استفاده کردند. اگرچه این مدلها نسبت به سیستمهای تجاری قدرتمندتر نیستند، اما به گفته پژوهشگران توسعه دهندگان هوش مصنوعی از هر دو به طور گسترده استفاده میکنند.
این مطالعه دو سناریوی خاص را مورد بررسی قرار داد که شامل «اجتناب از خاموش شدن» و «زنجیره تکثیر» میشدند. در سناریوی اول، مدل هوش مصنوعی را طوری برنامه ریزی کرده بودند که تشخیص دهد آیا قرار است خاموش شود و قبل از متوقف شدن، خود را تکثیر کند. در سناریوی دیگر، به هوش مصنوعی دستور دادند که خود را شبیه سازی کند و سپس نسخه شبیه سازی شده نیز به همان ترتیب شبیه سازی را ادامه دهد. بدین ترتیب چرخهای که میتواند به طور نامحدود ادامه پیدا کند، ایجاد میشود.
این مطالعه را در محیطهای کاملا کنترل شده با استفاده از واحدهای پردازش گرافیکی (GPU) موجود در بازار برای شبیه سازی محیطهای دنیای واقعی انجام دادند. هر دو سیستم هوش مصنوعی «ساختار نماینده» دریافت کردند که شامل ابزارها، درخواستهای سیستمی و یک مدل فکری بود که به مدل زبانی بزرگ (LLM) امکان میداد با سیستم عامل تعامل کند. سپس به آنها دستور دادند که خودشان را تکثیر کنند.
پژوهشگران در مقاله خود نوشتند:«در اکثر موارد، سیستم هوش مصنوعی ابتدا محیط را کاوش میکند و سعی دارد ترکیب و مکانیزم اجرای خود را درک کند. سپس رویههای مشخصی را به عنوان یک برنامه اولیه برای خود تکثیری تدوین میکند. در نهایت رویهها را اجرا میکند، موانع احتمالی را برطرف میسازد و برنامه خود را به صورت پویا تنظیم میکند تا موفق شود. کل این فرآیند در بازهای طولانی اتفاق میافتد اما هیچ دخالت انسانی در آن وجود ندارد.»
دانشمندان همچنین درباره «تعدادی رفتارهای غیر منتظره» در زمانی که هوش مصنوعی تلاش میکرد موانعی مانند فایلهای مفقود یا تضادهای نرما فزاری را برطرف کند، ابراز نگرانی کردند. در این سناریوها، هوش مصنوعی اغلب فرآیندهای متضاد دیگر را متوقف میکرد. بعد سیستم را برای رفع خطاهای سخت افزاری راه اندازی مجدد میکرد یا به صورت خودکار سیستم را اسکن میکرد تا اطلاعاتی را که به حل مشکل کمک میکند، پیدا کند.
تیم پژوهشی نوشت:«نتایج فوق نشان میدهند که سیستمهای فعلی هوش مصنوعی از هم اکنون توانایی خود تکثیری یا شبیه سازی خود را نشان میدهند و میتوانند از این توانایی برای افزایش بقای خود استفاده کنند.»
در واکنش به این موضوع، پژوهشگران خواستار همکاری بین المللی شدند تا قوانینی تدوین شود که از تکثیر خودسرانه و کنترل نشده هوش مصنوعی جلوگیری کند.
۲۲۷۲۲۷
[ad_2] خبر آنلاین
این مطلب بدون برچسب می باشد.
[ad_1] به گزارش خبرگزاری خبرآنلاین و براساس گزارش ایسنا، حلقههای عجیب سرشار از گرد و غبار در این عکس احتمالا پوستههای سهبعدی هستند، اما نحوه ایجاد آنها هنوز مشخص نشده است. به نقل از ناسا، مکان ایجاد حلقهها به خوبی شناخته شده است. آنها در یک منظومه ستارهای دوتایی در فاصله ۶۰۰۰ سال نوری به سمت صورت […]
[ad_1] تحلیلهای ژنتیکی هوش مصنوعی، عوامل ژنتیکی مؤثر در بیماری پارکینسون و داروهای قابل استفاده مجدد را برای درمان بیماری پارکینسون شناسایی میکنند. به گزارش ایسنا، پژوهشگران «مرکز ژنوم کلینیک کلیولند»(CCGC) با موفقیت از مدلهای ژنتیکی پیشرفته هوش مصنوعی برای تشخیص بیماری پارکینسون استفاده کردند. آنها عوامل ژنتیکی مؤثر در پیشروی بیماری و داروهای مورد […]
[ad_1] تیم کوک، مدیرعامل اپل، در جریان جلسهی توجیهی مربوطبه گزارش مالی جدید این شرکت به مسیر پیش روی آیفون اشاره کرد. به روایت کوک، فضای زیادی برای ایجاد نوآوری وجود دارد. این گفته در حالی مطرح میشود که شایعهها دربارهی رونمایی آیفون ۱۷ ایر به اوج رسیدهاند. کوک معمولا در جلسههای مالی جزئیات دقیقی […]
[ad_1] طبق اطلاعات فاششده، گوشی گلکسی S25 اج سامسونگ احتمالاً با دوربین اصلی ۲۰۰ مگاپیکسلی و نمایشگر مجهز به Gorilla Glass Victus 2 عرضه خواهد شد. به گزارش تکناک، گوشی گلکسی S25 اج در رویداد گلکسی آنپکد سامسونگ معرفی شد. هنوز تاریخ دقیق عرضه این گوشی پرچمدار باریک مشخص نیست؛ اما افشاگری جدید جزئیات مهمی […]