هشدار بزرگ جفری هینتون: هوش مصنوعی ۲۰ سال آینده، تهدیدی جدی برای انسانها

یک دانشمند کامپیوتر ملقب به «پدرخوانده هوش مصنوعی»، هشدار داد که این فناوری ممکن است باعث پایان بشریت شود.
به گزارش پارسینه به نقل از اقتصادنیوز؛ جفری هینتون، دانشمند کامپیوتر ملقب به «پدرخوانده هوش مصنوعی»، هشدار داد که این فناوری ممکن است باعث پایان بشریت شود و از روشهای فنی فعلی برای کاهش خطرات آن انتقاد کرد.
هینتون، برنده جایزه نوبل و مدیر اجرایی سابق گوگل، در سخنرانی خود در کنفرانس Ai۴ در لاس وگاس گفت که احتمال ۱۰ تا ۲۰ درصدی وجود دارد که هوش مصنوعی بشریت را نابود کند و افزود که تلاش برای «تحت سلطه» نگه داشتن این سیستمها توسط انسانها موفق نخواهد بود، زیرا آنها «بسیار باهوشتر از ما» خواهند بود و همیشه راههایی برای دور زدن پیدا خواهند کرد.
هینتون توانایی سیستمهای هوش مصنوعی آینده را برای کنترل انسانها به توانایی یک فرد بالغ برای وسوسه کردن یک کودک خردسال با آب نبات تشبیه کرد و خاطرنشان کرد که برخی از مدلها قبلاً رفتارهای فریبکارانه از خود نشان دادهاند، از جمله یک مورد اخاذی از یک مهندس پس از کشف یک رابطه خاص از طریق ایمیل.
هینتون رویکرد جایگزینی را پیشنهاد کرد که شامل القای چیزی است که او آن را «غریزه مادری» در مدلهای هوش مصنوعی مینامد، به طوری که آنها حتی پس از برتری در قدرت و هوش، «واقعاً به انسانها اهمیت میدهند».
وی تاکید کرد: «اگر ما چنین کاری را با این موجودات عجیب و غریبی که خلق میکنیم انجام ندهیم، به تاریخ خواهیم پیوست.»
وی خاطرنشان کرد که ساخت این غرایز از نظر فنی دشوار است، اما طبیعت در طول تکامل در آن موفق بوده است، به این معنی که اگر انسانها به جای تمرکز صرف بر افزایش هوش، بر همدلی ماشینها با انسانها تمرکز کنند، میتوانند راهی برای دستیابی به آن پیدا کنند.
وی توضیح داد که هر سیستم هوشمندی دو هدف فرعی را توسعه میدهد: بقا و به دست آوردن کنترل بیشتر، و بر اهمیت تثبیت همدلی با انسانها در این سیستمها تاکید کرد.
وی افزود: «تنها مدلی که ما از چیزی باهوشتر میشناسیم که توسط موجودی کمهوشتر کنترل میشود، مادری است که احساساتش نسبت به فرزندش او را کنترل میکند.» وی معتقد است که این «تنها نتیجه خوب» است اگر بخواهیم از یک تهدید وجودی اجتناب کنیم.
اما این ایده با اجماع مواجه نشد. فای فای لی، پیشگام در زمینه هوش مصنوعی، گفت که با هینتون مخالف است و در عوض خواستار توسعه «هوش مصنوعی انسان محور که کرامت و اثربخشی او را حفظ کند» شد.
همچنین امت شیر، مدیر عامل موقت سابق OpenAI و مدیر عامل فعلی Softmax، خاطرنشان کرد که تلاشهای سیستمهای هوش مصنوعی برای دور زدن یا اخاذی «به طور مداوم اتفاق میافتد» و تأکید کرد که این سیستمها «به سرعت در حال قویتر شدن هستند» و راه حل ایدهآل ایجاد یک رابطه مشارکتی بین انسان و هوش مصنوعی است.
هینتون در پاسخ به سوالاتی درباره رقابت جهانی برای کنترل هوش مصنوعی، توضیح داد که تهدید وجودی ناشی از کنترل ماشینها مستلزم همکاری همه کشورها است، همانطور که بین ایالات متحده و اتحاد جماهیر شوروی در طول جنگ سرد اتفاق افتاد، زیرا «هیچ کشوری نمیخواهد هوش مصنوعی کنترل را در دست بگیرد».
هینتون از عدم آگاهی عمومی از خطر آنچه در حال وقوع است انتقاد کرد و نسبت به نفوذ شرکتهای فناوری که توسط «افراد غیرمنتخب که میلیاردها دلار به دست میآورند» کنترل میشوند هشدار داد و خواستار فشار اجتماعی متقابل برای رد لغو مقررات شد.
هینتون بر این باور بود که دستیابی به هوش مصنوعی عمومی (AGI) ۳۰ تا ۵۰ سال طول میکشد، اما اکنون معتقد است که این امر ممکن است تنها در پنج تا بیست سال محقق شود.
هینتون با وجود نگرانی از خطرات، امیدوار است که هوش مصنوعی به دستاوردهای بزرگ پزشکی کمک کند، مانند کشف داروهای جدید و توسعه درمانهای موثرتر برای سرطان، اما ایده استفاده از این فناوری برای دستیابی به جاودانگی را رد کرد و آن را «اشتباه فاحش» خواند.
هینتون درباره مسیر خود اعتراف کرد که از تمرکز بیش از حد بر توسعه هوش مصنوعی بدون توجه کافی به مسائل ایمنی پشیمان است و گفت: «ای کاش به مسائل ایمنی هم فکر میکردم.»
ارسال نظر