مدل استدلالی هوش مصنوعی O1 شرکت OpenAI به زبان چینی فکر می‌کند

تحقیقات اخیر در OpenAI مشکلات جدیدی درزمینه تفسیر و درک رفتار مدل استدلالی هوش مصنوعی o1، ازجمله تفکر به زبان چینی را مطرح کرده است. به گزارش تک‌ناک، مدل استدلالی هوش مصنوعی o1 شرکت OpenAI رفتار عجیبی از خود نشان داده که موجب تعجب کاربران و کارشناسان شده است. این مدل گاهی به‌جای استفاده از […]


تحقیقات اخیر در OpenAI مشکلات جدیدی درزمینه تفسیر و درک رفتار مدل استدلالی هوش مصنوعی o1، ازجمله تفکر به زبان چینی را مطرح کرده است.

به گزارش تک‌ناک، مدل استدلالی هوش مصنوعی o1 شرکت OpenAI رفتار عجیبی از خود نشان داده که موجب تعجب کاربران و کارشناسان شده است. این مدل گاهی به‌جای استفاده از زبان انگلیسی، شروع به «تفکر» به زبان‌هایی مانند چینی، فارسی، هندی یا تایلندی می‌کند؛ حتی زمانی که سؤال اولیه به زبان انگلیسی مطرح شده است.

زمانی که o1 با مسئله‌ای مانند «چند حرف R در کلمه Strawberry وجود دارد؟» مواجه می‌شود، فرایند استدلال خود را آغاز می‌کند و پس‌از چندین مرحله، پاسخ نهایی را ارائه می‌دهد. اگرچه پاسخ نهایی به زبان انگلیسی است، برخی از مراحل استدلال به زبان‌های دیگر انجام می‌شود.

یکی از کاربران ردیت نوشت: «مدل استدلالی هوش مصنوعی o1 به‌طور تصادفی وسط کار به زبان چینی شروع به فکر‌کردن کرد!» در همین حال، کاربر دیگری در X اظهار کرد: «چرا o1 به‌صورت تصادفی به زبان چینی فکر کرد؟ هیچ بخشی از مکالمه قبلی به این زبان نبود.»

OpenAI تاکنون توضیحی برای این رفتار عجیب ارائه نداده و حتی این پدیده را تأیید نکرده است. در غیاب پاسخ رسمی، متخصصان حوزه هوش مصنوعی سعی می‌کنند این مسئله را تبیین کنند.

تحقیقات اخیر در OpenAI، چالش‌های جدیدی را در زمینه تفسیر و درک رفتار مدل‌های استدلال هوش مصنوعی مطرح کرده است.

تک‌کرانچ می‌نویسد که برخی از متخصصان معتقدند این رفتار ممکن است به‌دلیل داده‌های آموزشی مدل باشد. Clément Delangue، مدیرعامل Hugging Face، اشاره کرد که مدل‌های استدلالی مانند o1 با داده‌هایی حاوی کاراکترهای چینی آموزش دیده‌اند.

Ted Xiao، پژوهشگر دیپ‌مایند گوگل، نیز ادعا کرد که شرکت‌هایی مانند OpenAI از خدمات برچسب‌گذاری داده‌های چینی برای آموزش مدل‌های پیشرفته استفاده می‌کنند. او افزود:

بسیاری از ارائه‌دهندگان داده‌های علمی و ریاضی و کدنویسی در چین مستقر هستند که می‌تواند به تأثیر زبان چینی بر فرآیند استدلال مدل منجر شود.

در مقابل، برخی کارشناسان فرضیه تأثیر داده‌های چینی را رد کرده‌اند. آنان معتقدند که مدل o1 از زبان‌هایی استفاده می‌کند که ازنظر محاسباتی برای دستیابی به هدف کارآمدتر هستند. Matthew Guzdial، پژوهشگر دانشگاه آلبرتا، دراین‌باره گفت: «این مدل‌ها زبان را نمی‌شناسند و فقط متن را پردازش می‌کنند.»

مدل‌های هوش مصنوعی مانند o1 به‌جای پردازش کلمات، از واحدهایی به نام «توکن» استفاده می‌کنند. توکن‌ها ممکن است کلمات و هجاها یا حتی کاراکترهای جداگانه در کلمات باشند. برخی متخصصان معتقدند که استفاده از توکن‌ها می‌تواند باعث ایجاد سوگیری در مدل شود؛ چرا‌که ساختار زبانی همه زبان‌ها یکسان نیست.

Luca Soldaini، دانشمند مؤسسه Allen Institute for AI، تأکید کرد که شفافیت در نحوه آموزش مدل‌های هوش مصنوعی برای درک چنین رفتارهایی ضروری است. او گفت:

شفاف‌نبودن این مدل‌ها باعث می‌شود تا نتوانیم با اطمینان دلیل چنین رفتارهایی را مشخص کنیم.

تا زمانی که OpenAI توضیحی رسمی ارائه نکند، دلیل تفکر مدل استدلالی هوش مصنوعی o1 به زبان‌هایی غیر از زبان پرسش‌کننده بی‌پاسخ خواهد ماند. این رفتار عجیب نشان‌دهنده پیچیدگی‌های ذاتی مدل‌های هوش مصنوعی و اهمیت شفافیت در طراحی و آموزش آن‌ها است.



منبع: تکنک