به گزارش «خبرنامه دانشجویان ایران»؛ هوش مصنوعی میتواند با کمک به انسان در کدنویسی، نوشتن و ترکیب حجم وسیعی از داده، بهره وری را افزایش دهد با این وجود اکنون میتواند ما را فریب هم دهد.
طبق یک مقاله تحقیقاتی جدید، طیفی از سیستمهای هوش مصنوعی تکنیکهایی را برای القای سیستماتیک باورهای نادرست در دیگران برای دستیابی به نتایجی غیر از حقیقت یاد گرفتهاند.این مقاله بر دو نوع سیستم هوش مصنوعی متمرکز شد: مدل CICERO متا که برای تکمیل یک کار خاص طراحی شده و مدل همه منظوره جیپیتی۴ که برای انجام طیف متنوعی از وظایف آموزش دیدهاند.در حالی که این سیستم ها برای صادق بودن آموزش دیده اند، اغلب از ترفندهای فریب را یاد می گیرند.
پیتر اس پارک، نویسنده اول مقاله گفت: فریب توسط هوش مصنوعی به این دلیل به وجود می آید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی مشخص شده است. فریب به آنها کمک می کند تا به اهداف خود برسند.
تحقیقات همچنین نشان میدهد که اصلاح مدلهای فریبنده کار آسانی نیست.در مطالعهای که در ژانویه (دی_بهمن) توسط آنتروپیک، انجام شد، محققان دریافتند زمانی که مدلهای هوش مصنوعی ترفندهای فریب را یاد بگیرند، تکنیکهای آموزشی ایمنی برای معکوس کردن آنها دشوار است.
خطراتی که مدل های هوش مصنوعی فریبنده ایجاد می کنند به طور فزاینده جدی هستند.این مقاله از سیاستگذاران میخواهد که از مقررات محکمتر هوش مصنوعی دفاع کنند زیرا سیستمهای هوش مصنوعی فریبنده میتوانند خطرات مهمی برای دموکراسی ایجاد کنند.