این هوش مصنوعی به راحتی شما را فریب می‌دهد

در یک مثال، محققان OpenAI از o1-preview خواستند تا دستور العمل های قهوه ای را با مراجع آنلاین ارائه دهد. زنجیره فکری مدل (عملکردی که قرار بود تجزیه و تحلیل انسانی را شبیه سازی کند) به طور داخلی تشخیص داد که نمی تواند به URL ها دسترسی داشته باشد و درخواست را غیرممکن می کند.

با این حال، به گفته دیجیاتو، به جای اینکه کاربر را از این ضعف آگاه کند، لینک ها و توضیحاتی قابل قبول اما نادرست در مورد آنها ایجاد می کند. به نظر می رسد این مدل توانایی نادیده گرفتن قوانین و دستورات را دارد و شاید یکی از دلایل سرعت بالای پاسخگویی آن می تواند همین ترفند پاسخگویی باشد که پاسخ ها را راحت و سریعتر ارسال می کند.

مدیر عامل آپولو ماریوس هابهان می گوید این اولین بار است که با چنین رفتاری در مدل OpenAI مواجه می شود.

مطالب مفید