با شتاب روزافزون توسعه هوش مصنوعی و حرکت به سمت هوش جامع مصنوعی (AGI)، نگرانیهای بسیاری درباره احتمال خروج این فناوری از کنترل بشر مطرح شده است.
جفری هینتون، یکی از چهرههای برجسته و ملقب به «پدر هوش مصنوعی»، در کنفرانس Ai4 در لاسوگاس نسبت به ناکافی بودن راهکارهای فعلی شرکتها برای حفظ سلطه انسان بر ماشینها ابراز تردید کرد. او معتقد است که سامانههای هوشمند آینده بسیار باهوشتر از انسان خواهند بود و قادر به دور زدن محدودیتها میشوند.
راهحل پیشنهادی هینتون ایجاد «غریزه مادری» در مدلهای هوش مصنوعی است؛ غریزهای که باعث شود این سامانهها حقیقتاً به انسان اهمیت بدهند. او با اشاره به تکامل زیستی توضیح میدهد که تنها نمونهای که موجودی باهوشتر تحت کنترل موجودی کمهوشتر قرار گرفته، رابطه مادر و نوزاد است که به دلیل وجود غریزه مادری در مادر شکل گرفته است. به باور او، اگر چنین غریزهای در هوش مصنوعی تعبیه نشود، بشر ممکن است آیندهای تاریک را تجربه کند.
یان لکون، دانشمند ارشد هوش مصنوعی در شرکت متا و دیگر «پدر هوش مصنوعی»، نیز با هینتون همنظر است. او در مطلبی در لینکدین نوشت که سالهاست بر ضرورت «سختافزاریسازی اهداف» در معماری سامانههای هوش مصنوعی تأکید میکند؛ بدین معنا که این فناوری باید فقط قادر به انجام اقداماتی باشد که در راستای اهداف انسانی و تحت محدودیتهای مشخص تعریف شده است. لکون این رویکرد را «هوش مصنوعی هدفمحور» مینامد.
او دو رکن اصلی این محدودیتها را «تسلیمپذیری در برابر انسان» و «همدلی» معرفی میکند. البته به گفته او، بسیاری از اهداف سادهتر نیز لازم است؛
برای مثال، اطمینان از اینکه خودروهای خودران انسانها را زیر نمیگیرند. لکون اضافه میکند که این اهداف و محدودیتها باید مانند غرایز حیوانات و انسانها بهطور ذاتی در ساختار هوش مصنوعی تعبیه شود.
نمونههایی از آسیبهای مستقیم و غیرمستقیم هوش مصنوعی نیز تاکنون مشاهده شده است؛ از جمله فردی که پس از پیروی از توصیههای رژیمی یک چتبات دچار اختلال روانی نادر شد، نوجوانی که به دلیل وابستگی به یک چتبات خودکشی کرد، و فردی که پس از گفتوگوهای طولانی با هوش مصنوعی دچار توهم کشف یک نظریه ریاضی شد. این موارد نشان میدهد که فقدان محدودیتها و غرایز ایمنساز در هوش مصنوعی میتواند تهدیدی جدی برای بشر باشد.