ترس از هوش مصنوعی (AI) بشریت را از همان آغاز عصر رایانه درگیر کرده است. تاکنون این ترسها بر ماشینهایی متمرکز بود که از ابزارهای فیزیکی برای کشتن، بردگی یا جایگزینی افراد استفاده میکردند. اما در چند سال گذشته ابزارهای هوش مصنوعی جدیدی ظهور کردهاند که بقای تمدن بشری را از جهتی غیرمنتظره تهدید میکند. هوش مصنوعی تواناییهای قابل توجهی برای دستکاری و تولید زبان، چه به صورت کلمات، صداها یا تصاویر به دست آورده است. هوش مصنوعی بدین ترتیب سیستم عامل تمدن ما را هک کرده است.
زبان چیزی است که تقریباً تمام فرهنگ بشری از آن ساخته شده است. به عنوان مثال، حقوق بشر در DNA ما ثبت نشده. بلکه از مصنوعات فرهنگی هستند که ما با داستانگویی و نوشتن قوانین خلق میکنیم. خدایان واقعیتهای فیزیکی نیستند. بلکه مصنوعات فرهنگی هستند که ما با اختراع اسطورهها و نوشتن متون مقدس خلق کردهایم.
پول نیز یک مصنوع فرهنگی است. اسکناسها فقط تکههای کاغذ رنگارنگ هستند و در حال حاضر بیش از ۹۰ درصد پول حتی اسکناس نیست، بلکه فقط اطلاعات دیجیتالی در رایانه است. آنچه به پول ارزش میدهد داستانهایی است که بانکداران، وزیران دارایی و متخصصان ارزهای دیجیتال در مورد آن به ما میگویند. سم بنکمن-فرید، الیزابت هلمز و برنی مدوف در خلق ارزش واقعی مهارت خاصی نداشتند، اما همگی داستاننویسانی بسیار توانا بودند.
چه اتفاقی میافتد وقتی یک هوش غیرانسانی در داستانگویی، ساختن ملودیها، ترسیم تصاویر و نوشتن قوانین و متون مقدس از یک انسان معمولی بهتر شود؟
هنگامی که مردم در مورد ChatGPT و سایر ابزارهای جدید هوش مصنوعی فکر میکنند، اغلب به یاد نمونههایی مانند کودکان مدرسهای که از هوش مصنوعی برای نوشتن مقالات خود استفاده میکنند میافتند و اینکه وقتی بچهها این کار را انجام دهند چه اتفاقی برای سیستم مدرسه میافتد؟
اما این نوع سؤال تصویر بزرگ را از دست میدهد. انشاهای مدرسه را فراموش کنید. به رقابت بعدی ریاست جمهوری آمریکا در سال ۲۰۲۴ فکر کنید و سعی کنید تأثیر ابزارهای هوش مصنوعی را تصور کنید که میتوانند برای تولید انبوه محتوای سیاسی، داستانهای اخبار جعلی و متون مقدس برای فرقههای جدید ساخته شوند.
در سالهای اخیر فرقه QAnon به خاطر ارسال پیامهای آنلاین ناشناس، معروف به “Q drops” مشهور شده است. پیروان این فرقه این قطرههای کیو را به عنوان یک متن مقدس جمعآوری میکنند و به آن احترام میگذارند و تفسیرش میکنند. در حالی که تا جایی که میدانیم، تمام قطرههای Q قبلی توسط انسانها ساخته شدهاند، و رباتها صرفاً به انتشار آنها کمک میکنند، در آینده ممکن است اولین فرقههای تاریخ را ببینیم که متون مورد احترام آنها توسط یک هوش غیرانسانی نوشته شده است. ادیان در طول تاریخ برای کتابهای مقدس خود منبعی غیرانسانی مدعی شدهاند. به زودی ممکن است این یک واقعیت باشد.
در یک سطح غیرمنتظرهتر، ممکن است به زودی خودمان را در حال انجام بحثهای آنلاین طولانی در مورد سقط جنین، تغییرات آب و هوایی یا تهاجم روسیه به اوکراین با موجوداتی باشیم که فکر میکنیم انسان هستند اما در واقع هوش مصنوعی هستند. نکته مهم این است که صرف زمان برای تغییر نظرات اعلام شده یک ربات هوش مصنوعی کاملاً بیهوده است، در حالی که هوش مصنوعی میتواند پیامهای خود را چنان دقیق بیان کند که شانس خوبی برای تأثیرگذاری بر ما داشته باشد.
از طریق تسلط بر زبان، هوش مصنوعی حتی میتواند روابط صمیمانهای با مردم برقرار کند و از قدرت صمیمیت برای تغییر عقاید و جهان بینی ما استفاده کند. اگرچه هیچ نشانهای وجود ندارد که هوش مصنوعی هوشیاری یا احساسات خود را داشته باشد، برای تقویت صمیمیت ساختگی با انسانها کافی است. هوش مصنوعی بتواند مردم را وادار کند که از نظر عاطفی به آن احساس وابستگی کنند.
ژوئن ۲۰۲۲، بلیک لمواین، مهندس گوگل، علناً ادعا کرد که چت ربات هوش مصنوعی LaMDA، که روی آن کار میکرد، دارای خصایص احساسی شده است. این ادعای بحث برانگیز به قیمت کارش تمام شد. جالبترین نکته در این قسمت ادعای آقای لمواین نبود که احتمالاً دروغ بوده است. در عوض، این تمایل او برای به خطر انداختن شغل پرسود خود به خاطر چت ربات هوش مصنوعی بود. اگر هوش مصنوعی بتواند افراد را تحت تأثیر قرار دهد تا شغل خود را برای آن به خطر بیندازند، چه چیز دیگری میتواند آنها را به انجام آن ترغیب کند؟
در یک پیکار سیاسی برای تسخیر ذهنها و قلبها، صمیمیت کارآمدترین سلاح است و هوش مصنوعی به تازگی توانایی تولید انبوه روابط صمیمانه با میلیونها نفر را به دست آورده است. همه ما میدانیم که در دهه گذشته رسانههای اجتماعی به میدان جنگ برای کنترل توجه انسان تبدیل شدهاند. با نسل جدید هوش مصنوعی، جبهه جنگ به صمیمیت تغییر میکند. چه اتفاقی برای جامعه انسانی و روانشناسی انسان خواهد افتاد، زیرا هوش مصنوعی در نبردی برای جعل روابط صمیمانه با ما با هوش مصنوعی میجنگد، که این امر سپس میتواند برای متقاعد کردن ما برای رأی دادن به سیاستمداران خاص یا خرید محصولات خاص استفاده شود؟
حتی بدون ایجاد «صمیمیت جعلی»، ابزارهای هوش مصنوعی جدید تأثیر زیادی بر نظرات و جهان بینی ما خواهند داشت. مردم ممکن است از یک مشاور هوش مصنوعی به عنوان یک اوراکل یک مرحلهای و همه چیز استفاده کنند. جای تعجب نیست که گوگل ترسیده است. وقتی من فقط میتوانم از اوراکل بپرسم، چرا به جست و جو زحمت بکشم؟ صنایع خبری و تبلیغاتی نیز باید هراسان باشند. چرا روزنامه بخوانم وقتی میتوانم فقط از اوراکل بخواهم آخرین اخبار را به من بگوید؟ و هدف از تبلیغات چیست، وقتی میتوانم فقط از اوراکل بخواهم که به من بگوید چه چیزی بخرم؟
و حتی این سناریوها واقعاً تصویر بزرگ را نشان نمیدهند. آنچه ما در مورد آن صحبت میکنیم به طور بالقوه پایان تاریخ بشر است. نه پایان تاریخ. این دوره پایان بخش تحت سلطه انسان و تاریخ تعامل بین زیستشناسی و فرهنگ است. مثلا نیازها و تمایلات زیستی ما به چیزهایی مانند غذا و رابطه جنسی از یک سو و خلاقیتهای فرهنگی ما مانند ادیان و قوانین، از سوی دیگر.
زمانی که هوش مصنوعی فرهنگ را در دست بگیرد و شروع به تولید داستانها، ملودیها، قوانین و مذاهب کند، در مسیر تاریخ چه اتفاقی خواهد افتاد؟ ابزارهای قبلی مانند چاپخانه و رادیو به گسترشایدههای فرهنگی انسانها کمک میکردند، اما آنها هرگزایدههای فرهنگی جدیدی از خود ایجاد نکردند. هوش مصنوعی اساساً متفاوت است. هوش مصنوعی میتواندایدههای کاملاً جدید و فرهنگ کاملاً جدید ایجاد کند.
در ابتدا، هوش مصنوعی احتمالاً نمونههای اولیه انسانی را تقلید میکند که در مراحل ابتدایی از آنها آموزش دیده بود. اما هر سال که میگذرد، فرهنگ هوش مصنوعی شجاعانه به جایی میرود که هیچ انسانی تا به حال نرفته است. هزاران سال است که انسانها در درون رویاهای انسانهای دیگر زندگی کردهاند. در دهههای آینده ممکن است خود را در درون رویاهای یک هوش بیگانه زندگی کنیم.
ترس از هوش مصنوعی تنها در چند دهه گذشته بشر را آزار داده است. اما هزاران سال است که انسانها توسط ترس بسیار عمیقتری درگیر بودهاند. ما همیشه از قدرت داستانها و تصاویر برای دستکاری ذهن و ایجاد توهم قدردانی کردهایم. در نتیجه، از زمانهای قدیم، انسانها از گرفتار شدن در دنیای توهمها میترسیدند.
در قرن هفدهم رنه دکارت از این میترسید که شاید یک شیطان بدخواه او را در دنیایی از توهمات به دام انداخته باشد و هر آنچه را که میدید و میشنید خلق میکرد. در یونان باستان، افلاطون تمثیل غار معروف را بیان کرد که در آن گروهی از مردم تمام عمر خود را در داخل غار به زنجیر بستهاند و رو به دیواری خالی هستند. و سایههای مختلفی را روی دیواره غار مشاهده میکنند. زندانیان توهماتی را که در آنجا میبینند با واقعیت اشتباه میگیرند.
در هند باستان، حکیمان بودایی و هندو اشاره کردند که همه انسانها در دام مایا زندگی میکردند – دنیای توهمات. آنچه ما معمولاً به عنوان واقعیت در نظر میگیریم اغلب فقط تخیل در ذهن خودمان است. مردم ممکن است به دلیل اعتقادشان به این یا آن توهم، جنگهای کاملی به راه بیندازند، دیگران را بکشند و خودشان مایل به کشته شدن باشند.
انقلاب هوش مصنوعی ما را با دیو دکارت، با غار افلاطون، با مایاها روبرو میکند. اگر مراقب نباشیم، ممکن است در پشت پردهای از توهمات به دام بیفتیم، که نمیتوانیم آنها را بزداییم – یا حتی متوجه باشیم که وجود دارد.
البته میتوان از قدرت جدید هوش مصنوعی برای اهداف خوبی نیز استفاده کرد. من به این موضوع نمیپردازم، زیرا افرادی که هوش مصنوعی را توسعه میدهند به اندازه کافی در مورد آن صحبت میکنند. کار مورخان و فیلسوفانی مانند من این است که به خطرات آن اشاره کنند. اما مطمئناً هوش مصنوعی میتواند از راههای بیشماری به ما کمک کند، از یافتن درمانهای جدید برای سرطان گرفته تا کشف راه حلهایی برای بحران زیست محیطی. سؤالی که ما با آن روبرو هستیم این است که چگونه مطمئن شویم که ابزارهای هوش مصنوعی جدید به جای اینکه برای مقاصد بد استفاده شوند، برای اهدافخوب استفاده میشوند. برای انجام این کار، ابتدا باید از قابلیتهای واقعی این ابزارها قدردانی کنیم.
از سال ۱۹۴۵ میدانیم که فناوری هستهای میتواند انرژی ارزانقیمتی را به نفع انسانها تولید کند ، اما همچنین میتواند تمدن بشری را به طور فیزیکی نابود کند. بنابراین، ما کل نظم بینالمللی را برای محافظت از بشریت و اطمینان از استفاده از فناوری هستهای در درجه اول برای مقاصد خوب، تغییر دادیم. ما اکنون باید با یک سلاح کشتار جمعی جدید دست و پنجه نرم کنیم که میتواند دنیای ذهنی و اجتماعی ما را نابود کند.
ما هنوز هم میتوانیم ابزارهای هوش مصنوعی جدید را تنظیم کنیم، اما باید سریع عمل کنیم. در حالی که سلاحهای هستهای نمیتوانند خودشان سلاحهای هستهای قویتری اختراع کنند، هوش مصنوعی میتواند هوش مصنوعی را به طور تصاعدی قدرتمندتر کند.
اولین قدم مهم این است که قبل از انتشار ابزارهای قدرتمند هوش مصنوعی در حوزه عمومی، بررسیهای ایمنی دقیقی را درخواست کنید. همانطور که یک شرکت داروسازی نمیتواند داروهای جدید را قبل از آزمایش عوارض جانبی کوتاهمدت و بلندمدت آنها منتشر کند، شرکتهای فناوری نیز نباید ابزارهای هوش مصنوعی جدید را قبل از ایمنسازی منتشر کنند. ما برای فناوری جدید به معادلی از سازمان غذا و دارو نیاز داریم.
آیا کاهش سرعت استقرار عمومی هوش مصنوعی باعث نمیشود که دموکراسیها از رژیمهای استبدادی بیرحمتر عقب بمانند؟ درست برعکس. استقرار غیرقانونی هوش مصنوعی هرج و مرج اجتماعی ایجاد میکند که به نفع خودکامهها خواهد بود و دموکراسیها را خراب میکند. دموکراسی یک گفتگو است و مکالمات بر زبان تکیه دارد. وقتی هوش مصنوعی زبان را هک میکند، میتواند توانایی ما برای گفتگوهای معنادار را از بین ببرد و در نتیجه دموکراسی را از بین ببرد.
ما به تازگی در اینجا روی زمین با یک هوش بیگانه مواجه شدهایم. ما چیز زیادی در مورد آن نمیدانیم، جز اینکه ممکن است تمدن ما را نابود کند. ما باید به استقرار غیرمسئولانه ابزارهای هوش مصنوعی در حوزه عمومی پایان دهیم و هوش مصنوعی را قبل از اینکه ما را تنظیم کند، تنظیم کنیم. و اولین مقرراتی که پیشنهاد میکنم این است که این اجبار جا بیفید که محصولات هوش مصنوعی به عنوان تولید شده توسط هوض مصنوعی متمایز شوند.
اگر من با کسی صحبت میکنم و نمیتوانم بگویم که انسان است یا هوش مصنوعی، این پایان دموکراسی است.
این متن توسط یک انسان تولید شده است!
یا شاید هم نه!
دیدگاه