Wednesday، ۲۵ Mehr ۱۴۰۳
در این مقاله با خطرات هوش مصنوعی بیشتر آشنا میشویم. اگر هوش مصنوعی عمومی و غیرقابلکنترل، یا همان هوش مصنوعی “خدایی” باشد، در حال حاضر ما تقریباً نیمی از مسیر را طی کردهایم. هر روز که میگذرد، خطرات ناشی از هوش مصنوعی غیرقابلکنترل واقعی و قریبالوقوع هستند. زمان کنونی این ساعت، 29 دقیقه تا نیمهشب، نشانگر این است که چقدر به نقطه بحرانی نزدیک هستیم که هوش مصنوعی غیرقابلکنترل میتواند خطرات وجودی بهوجود آورد.
هرچند هنوز آسیبی فاجعهبار رخ نداده است، سرعت سرسامآور توسعه هوش مصنوعی و پیچیدگیهای مرتبط با تنظیمگری به این معناست که همه ذینفعان باید هوشیار و درگیر بمانند. این موضوع هشدار بیمورد نیست، بلکه بر دادههای واقعی استوار است. ساعت ایمنی هوش مصنوعی سه عامل اساسی را دنبال میکند: افزایش پیچیدگی فناوریهای هوش مصنوعی، افزایش خودمختاری آنها، و یکپارچگی بیشتر آنها با سیستمهای فیزیکی.
ما شاهد پیشرفتهای چشمگیری در این سه زمینه هستیم. بزرگترین پیشرفتها در یادگیری ماشین و شبکههای عصبی رخ داده است. بهگونهای که اکنون هوش مصنوعی در زمینههایی مانند تشخیص تصویر و گفتار، بازیهای پیچیده مانند Go و حتی عبور از آزمونهایی مانند مصاحبههای کدنویسی آمازون و آزمونهای مدرسه کسبوکار از انسان پیشی گرفته است.
با وجود این پیشرفتها، اکثر سیستمهای هوش مصنوعی امروزی هنوز به هدایت انسان نیاز دارند، همانطور که موسسه استنفورد برای هوش مصنوعی انسانمحور اشاره کرده است. این سیستمها برای انجام وظایف مشخص و محدود طراحی شدهاند و توسط دادهها و دستورات ما هدایت میشوند.
با این حال، برخی سیستمهای هوش مصنوعی در حال حاضر نشانههایی از استقلال محدود نشان میدهند. خودروهای خودران در تصمیمگیریهای لحظهای درباره مسیریابی و ایمنی مستقل عمل میکنند و الگوریتمهای توصیهگر در پلتفرمهایی مانند یوتیوب و آمازون بدون دخالت انسانی محتوا و محصولات را پیشنهاد میدهند. اما هنوز به نقطه استقلال کامل نرسیدهایم. همچنان موانع بزرگی وجود دارند، از تضمین ایمنی و نظارت اخلاقی گرفته تا مقابله با پیشبینیناپذیری سیستمهای هوش مصنوعی در محیطهای غیرساختاریافته.
خطرات دیپ فیک ها به یک مشکل جدی تبدیل شدهاند. در حالی که هوش مصنوعی با سرعتی سرسامآور پیش میرود، تنظیمگری از آن عقب مانده است. این مسئله بهویژه در ایالات متحده صادق است، جایی که تلاشها برای اجرای قوانین ایمنی هوش مصنوعی بهطور پراکنده انجام شدهاند. تنظیمگری غالباً به ایالتها واگذار شده است و در نتیجه منجر به یک مجموعه قوانین پراکنده و با اثربخشی متفاوت شده است. هیچ چارچوب ملی منسجمی برای اداره توسعه و استقرار هوش مصنوعی وجود ندارد.
ما به یک رویکرد هماهنگ و جهانی برای تنظیمگری هوش مصنوعی نیاز داریم: یک نهاد بینالمللی که توسعه هوش مصنوعی عمومی (AGI) را نظارت کند، مشابه آژانس بینالمللی انرژی اتمی که برای فناوری هستهای وجود دارد. همزمان نمیتوانیم از مسئولیت شرکتهایی مانند گوگل، مایکروسافت و OpenAI، شرکتهایی که در خط مقدم توسعه هوش مصنوعی قرار دارند، چشمپوشی کنیم. نگرانیهای فزایندهای وجود دارد مبنی بر اینکه رقابت شدید و فشارهای تجاری برای تسلط بر هوش مصنوعی ممکن است بر خطرات بلندمدت سایه بیندازد. اخیراً OpenAI با تغییر ساختار به سمت سودآوری در صدر اخبار قرار گرفته است.
بخشی از راهحل در این است که سیستمهای هوش مصنوعی دارای مکانیزمهای ایمنی مانند “کلید توقف” یا درهای پشتی باشند که به انسانها اجازه مداخله بدهد، اگر یک سیستم هوش مصنوعی شروع به رفتار غیرقابلپیشبینی کند. قانون ایمنی هوش مصنوعی کالیفرنیا شامل چنین مواردی بود. این مکانیزمها باید از ابتدا در سیستمهای هوش مصنوعی تعبیه شوند، نه اینکه بعدها بهعنوان یک فکر ثانویه اضافه شوند.
انکار نمیتوان کرد که خطرات واقعی هستند. ما در آستانه همزیستی با ماشینهایی هستیم که میتوانند با هوش انسانی برابری کنند یا حتی از آن پیشی بگیرند، چه این اتفاق در یک سال آینده رخ دهد یا در ده سال آینده. اما ما بیدفاع نیستیم. فرصت هدایت توسعه هوش مصنوعی در مسیر صحیح هنوز در دسترس ماست. ما میتوانیم آیندهای را تضمین کنیم که در آن هوش مصنوعی به یک نیروی کاربردی و مثبت تبدیل شود.
توسعه هوش مصنوعی به سرعت در حال پیشروی است و ما امروزه روز میتوانیم این پیشرفت را حتی در لوازم صوتی مانند اسپیکر و هدفون نیز مشاهده کنیم، و با وجود پیشرفتهای چشمگیر، خطرات جدی و واقعی را نیز به همراه دارد. نیاز به نظارت و تنظیمگری بینالمللی، همراه با مسئولیتپذیری شرکتهای پیشرو در این حوزه، بیش از هر زمان دیگری احساس میشود. ما هنوز فرصت داریم تا از طریق همکاری جهانی و طراحی مکانیزمهای ایمنی، مسیر توسعه هوش مصنوعی را به سمتی هدایت کنیم که به نفع بشریت باشد و از وقوع سناریوهای فاجعهبار جلوگیری کنیم.