آیا هوش مصنوعی انسان را فریب می‌دهد؟
آیا هوش مصنوعی انسان را فریب می‌دهد؟

ضمیمه دانش امروز روزنامه اطلاعات نوشت: بسیاری از سیستم‌های هوش مصنوعی حتی آن‌هایی که برای مفید بودن و راستگویی طراحی شده‌‌اند، یاد گرفته‌اند که چگونه انسان‌ها را فریب دهند. پژوهشگران در مورد پتانسیل سیستم‌های هوش مصنوعی برای درگیر شدن در رفتارهای فریبنده هشدار می‌دهند و می‌‌گویند هوش مصنوعی می‌تواند پیامدهای اجتماعی جدی داشته باشد. آن‌هابر […]

- آیا هوش مصنوعی انسان را فریب می‌دهد؟

ضمیمه دانش امروز روزنامه اطلاعات نوشت: بسیاری از سیستم‌های هوش مصنوعی حتی آن‌هایی که برای مفید بودن و راستگویی طراحی شده‌‌اند، یاد گرفته‌اند که چگونه انسان‌ها را فریب دهند.

پژوهشگران در مورد پتانسیل سیستم‌های هوش مصنوعی برای درگیر شدن در رفتارهای فریبنده هشدار می‌دهند و می‌‌گویند هوش مصنوعی می‌تواند پیامدهای اجتماعی جدی داشته باشد. آن‌هابر نیاز به اقدامات نظارتی قوی برای مدیریت مؤثر این خطرات تأکید می‌کنند واز دولت‌ها می‌‌خواهند که به سرعت مقرراتی قوی برای کاهش این خطرات وضع کنند.

توسعه‌دهندگان هوش مصنوعی درک مطمئنی از آن‌چه باعث رفتارهای نامطلوب هوش مصنوعی مانند فریب دادن می‌شود، ندارند. اما به طور کلی فریب هوش مصنوعی به این دلیل به وجود می‌آید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی است. این فریب به آن‌هاکمک می‌کند تا به اهداف خود برسند.

بارزترین نمونه فریب هوش مصنوعی که پزوهشگران در تجزیه و تحلیل خود کشف کردند متعلق به سیستم CICEROشرکت متا (فیسبوک سابق) بود که یک سیستم هوش مصنوعی طراحی شده برای بازی استراتژیک فتح جهان است.ا

گر چه متا ادعا می‌کند که CICEROرا به گونه‌ای آموزش داده است که تا حد زیادی صادق و مفید باشد و هیچ ‌گاه عمداً به متحدان انسانی خود در حین بازی از پشت خنجر نزند اما داده‌هایی که این شرکت به همراه مقاله علمی خود منتشر کرد، نشان داد که CICEROمنصفانه بازی نمی‌کند.هوش مصنوعی متا یاد گرفته است که در فریبکاری استاد باشد. در حالی که متا موفق شد هوش مصنوعی خود را برای برنده شدن در این بازی آموزش دهد اما CICEROدر بین ۱۰ درصد از بازیکنان انسانی برتر قرار گرفت که بیش از یک بازی انجام داده بودند.

سایر سیستم‌های هوش مصنوعی توانایی بلوف زدن در برخی بازی‌هاعلیه بازیکنان انسانی حرفه‌ای، حملات جعلی در طول بازی استراتژیک Starcraft IIبه منظور شکست دادن حریفان و ارائه پیشنهادات نادرست در مذاکرات اقتصادی را نشان داده‌اند. اگر چه ممکن است تقلب سیستم‌ ‌های هوش مصنوعی در بازی ‌ها بی‌ضرر به نظر برسد اما می‌تواند منجر به پیشرفت در قابلیت‌های هوش مصنوعی فریبنده شود که می‌تواند در آینده به اشکال پیشرفته‌تر فریب هوش مصنوعی تبدیل شود.

محققان دریافتند برخی از سیستم‌های هوش مصنوعی حتی یاد گرفته‌اند در آزمایش‌هایی که برای ارزیابی ایمنی آن‌هاطراحی شده‌‌اند، تقلب کنند.

یک هوش مصنوعی فریبنده با ارتکاب تقلب سیستماتیک در آزمایش‌های ایمنی توسعه‌دهندگان و تنظیم‌‌کننده ‌های انسانی می‌‌تواند انسان‌ها را به سمت یک احساس امنیت کاذب سوق دهد.

اگر این سیستم‌ها بتوانند این مجموعه مهارت‌های ناراحت‌کننده را توسعه دهند و بهبود ببخشند، ممکن است روزی انسان‌ها کنترل خود را روی هوش مصنوعی از دست بدهند.

پژوهشگران هشدار می‌دهند که باید برای فریب پیشرفته‌تر محصولات آینده هوش مصنوعی و مدل‌های منبع باز آماده شویم. با پیشرفته‌تر شدن قابلیت‌‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌‌کنند، جدی‌تر می‌شوند.

منبع: اطلاعات انلاین

23 خرداد 1403

فال و طالع بینی امروز ۲۳ خرداد

فال روزانه خود و عزیزان تان را در ادامه بخوانید.

تیپ شلخته مهمان فوتبالی صداوسیما روی آنتن زنده! 23 خرداد 1403

تیپ شلخته مهمان فوتبالی صداوسیما روی آنتن زنده!

تصویری از محمدرضا مهدوی در صداوسیما و کت عجیب او در فضای مجازی پربازتاب شد.

چرا خلبانان ریش نمی‌گذارند؟ 20 خرداد 1403

چرا خلبانان ریش نمی‌گذارند؟

اگرچه این موضوع ربطی به مقررات اداره هوانوردی فدرال (FAA) ندارد، اما بسیاری از خطوط هوایی بزرگ جهان قوانین سختگیرانه‌ای در رابطه با مو‌های صورت دارند. برای مثال، هواپیمایی آمریکن خلبانان را ملزم می‌کند که پیش از انجام وظیفه مو‌های صورتشان را بتراشند.