امروز: شنبه, ۰۱ ارديبهشت ۱۴۰۳ برابر با ۱۰ شوّال ۱۴۴۵ قمری و ۲۰ آوریل ۲۰۲۴ میلادی
کد خبر: 285118
۲۴۳
۱
۰
نسخه چاپی

یووال نوح هراری: هوش مصنوعی سیستم عامل تمدن بشری را هک کرده است

یووال نوح هراری: هوش مصنوعی سیستم عامل تمدن بشری را هک کرده است

ترس از هوش مصنوعی (AI) بشریت را از همان آغاز عصر رایانه درگیر کرده است. تاکنون این ترس‌ها بر ماشین‌هایی متمرکز بود که از ابزار‌های فیزیکی برای کشتن، بردگی یا جایگزینی افراد استفاده می‌کردند. اما در چند سال گذشته ابزار‌های هوش مصنوعی جدیدی ظهور کرده‌اند که بقای تمدن بشری را از جهتی غیرمنتظره تهدید می‌کند. هوش مصنوعی توانایی‌های قابل توجهی برای دستکاری و تولید زبان، چه به صورت کلمات، صدا‌ها یا تصاویر به دست آورده است. هوش مصنوعی بدین ترتیب سیستم عامل تمدن ما را هک کرده است.

زبان چیزی است که تقریباً تمام فرهنگ بشری از آن ساخته شده است. به عنوان مثال، حقوق بشر در DNA ما ثبت نشده. بلکه از مصنوعات فرهنگی هستند که ما با داستان‌گویی و نوشتن قوانین خلق می‌کنیم. خدایان واقعیت‌های فیزیکی نیستند. بلکه مصنوعات فرهنگی هستند که ما با اختراع اسطوره‌ها و نوشتن متون مقدس خلق کرده‌ایم.

پول نیز یک مصنوع فرهنگی است. اسکناس‌ها فقط تکه‌های کاغذ رنگارنگ هستند و در حال حاضر بیش از ۹۰ درصد پول حتی اسکناس نیست، بلکه فقط اطلاعات دیجیتالی در رایانه است. آنچه به پول ارزش می‌دهد داستان‌هایی است که بانکداران، وزیران دارایی و متخصصان ارز‌های دیجیتال در مورد آن به ما می‌گویند. سم بنکمن-فرید، الیزابت هلمز و برنی مدوف در خلق ارزش واقعی مهارت خاصی نداشتند، اما همگی داستان‌نویسانی بسیار توانا بودند.

چه اتفاقی می‌افتد وقتی یک هوش غیرانسانی در داستان‌گویی، ساختن ملودی‌ها، ترسیم تصاویر و نوشتن قوانین و متون مقدس از یک انسان معمولی بهتر شود؟

هنگامی که مردم در مورد ChatGPT و سایر ابزار‌های جدید هوش مصنوعی فکر می‌کنند، اغلب به یاد نمونه‌هایی مانند کودکان مدرسه‌ای که از هوش مصنوعی برای نوشتن مقالات خود استفاده می‌کنند می‌افتند و اینکه وقتی بچه‌ها این کار را انجام دهند چه اتفاقی برای سیستم مدرسه می‌افتد؟

اما این نوع سؤال تصویر بزرگ را از دست می‌دهد. انشا‌های مدرسه را فراموش کنید. به رقابت بعدی ریاست جمهوری آمریکا در سال ۲۰۲۴ فکر کنید و سعی کنید تأثیر ابزار‌های هوش مصنوعی را تصور کنید که می‌توانند برای تولید انبوه محتوای سیاسی، داستان‌های اخبار جعلی و متون مقدس برای فرقه‌های جدید ساخته شوند.

در سال‌های اخیر فرقه QAnon به خاطر ارسال پیام‌های آنلاین ناشناس، معروف به “Q drops” مشهور شده است. پیروان این فرقه این قطره‌های کیو را به عنوان یک متن مقدس جمع‌آوری می‌کنند و به آن احترام می‌گذارند و تفسیرش می‌کنند. در حالی که تا جایی که می‌دانیم، تمام قطره‌های Q قبلی توسط انسان‌ها ساخته شده‌اند، و ربات‌ها صرفاً به انتشار آن‌ها کمک می‌کنند، در آینده ممکن است اولین فرقه‌های تاریخ را ببینیم که متون مورد احترام آن‌ها توسط یک هوش غیرانسانی نوشته شده است. ادیان در طول تاریخ برای کتاب‌های مقدس خود منبعی غیرانسانی مدعی شده‌اند. به زودی ممکن است این یک واقعیت باشد.

در یک سطح غیرمنتظره‌تر، ممکن است به زودی خودمان را در حال انجام بحث‌های آنلاین طولانی در مورد سقط جنین، تغییرات آب و هوایی یا تهاجم روسیه به اوکراین با موجوداتی باشیم که فکر می‌کنیم انسان هستند  اما در واقع هوش مصنوعی هستند. نکته مهم این است که صرف زمان برای تغییر نظرات اعلام شده یک ربات هوش مصنوعی کاملاً بیهوده است، در حالی که هوش مصنوعی می‌تواند پیام‌های خود را چنان دقیق بیان کند که شانس خوبی برای تأثیرگذاری بر ما داشته باشد.

از طریق تسلط بر زبان، هوش مصنوعی حتی می‌تواند روابط صمیمانه‌ای با مردم برقرار کند و از قدرت صمیمیت برای تغییر عقاید و جهان بینی ما استفاده کند. اگرچه هیچ نشانه‌ای وجود ندارد که هوش مصنوعی هوشیاری یا احساسات خود را داشته باشد، برای تقویت صمیمیت ساختگی با انسان‌ها کافی است. هوش مصنوعی بتواند مردم را وادار کند که از نظر عاطفی به آن احساس وابستگی کنند.

ژوئن ۲۰۲۲، بلیک لمواین، مهندس گوگل، علناً ادعا کرد که چت ربات هوش مصنوعی LaMDA، که روی آن کار می‌کرد، دارای خصایص احساسی شده است. این ادعای بحث برانگیز به قیمت کارش تمام شد. جالب‌ترین نکته در این قسمت ادعای آقای لمواین نبود که احتمالاً دروغ بوده است. در عوض، این تمایل او برای به خطر انداختن شغل پرسود خود به خاطر چت ربات هوش مصنوعی بود. اگر هوش مصنوعی بتواند افراد را تحت تأثیر قرار دهد تا شغل خود را برای آن به خطر بیندازند، چه چیز دیگری می‌تواند آن‌ها را به انجام آن ترغیب کند؟

در یک پیکار سیاسی برای تسخیر ذهن‌ها و قلب‌ها، صمیمیت کارآمدترین سلاح است و هوش مصنوعی به تازگی توانایی تولید انبوه روابط صمیمانه با میلیون‌ها نفر را به دست آورده است. همه ما می‌دانیم که در دهه گذشته رسانه‌های اجتماعی به میدان جنگ برای کنترل توجه انسان تبدیل شده‌اند. با نسل جدید هوش مصنوعی، جبهه جنگ به صمیمیت تغییر می‌کند. چه اتفاقی برای جامعه انسانی و روانشناسی انسان خواهد افتاد، زیرا هوش مصنوعی در نبردی برای جعل روابط صمیمانه با ما با هوش مصنوعی می‌جنگد، که این امر سپس می‌تواند برای متقاعد کردن ما برای رأی دادن به سیاستمداران خاص یا خرید محصولات خاص استفاده شود؟

حتی بدون ایجاد «صمیمیت جعلی»، ابزار‌های هوش مصنوعی جدید تأثیر زیادی بر نظرات و جهان بینی ما خواهند داشت. مردم ممکن است از یک مشاور هوش مصنوعی به عنوان یک اوراکل یک مرحله‌ای و همه چیز استفاده کنند. جای تعجب نیست که گوگل ترسیده است. وقتی من فقط می‌توانم از اوراکل بپرسم، چرا به جست و جو زحمت بکشم؟ صنایع خبری و تبلیغاتی نیز باید هراسان باشند. چرا روزنامه بخوانم وقتی می‌توانم فقط از اوراکل بخواهم آخرین اخبار را به من بگوید؟ و هدف از تبلیغات چیست، وقتی می‌توانم فقط از اوراکل بخواهم که به من بگوید چه چیزی بخرم؟

و حتی این سناریو‌ها واقعاً تصویر بزرگ را نشان نمی‌دهند. آنچه ما در مورد آن صحبت می‌کنیم به طور بالقوه پایان تاریخ بشر است. نه پایان تاریخ. این دوره پایان بخش تحت سلطه انسان و تاریخ تعامل بین زیست‌شناسی و فرهنگ است. مثلا نیاز‌ها و تمایلات زیستی ما به چیز‌هایی مانند غذا و رابطه جنسی از یک سو و خلاقیت‌های فرهنگی ما مانند ادیان و قوانین، از سوی دیگر.

زمانی که هوش مصنوعی فرهنگ را در دست بگیرد و شروع به تولید داستان‌ها، ملودی‌ها، قوانین و مذاهب کند، در مسیر تاریخ چه اتفاقی خواهد افتاد؟ ابزار‌های قبلی مانند چاپخانه و رادیو به گسترش‌ایده‌های فرهنگی انسان‌ها کمک می‌کردند، اما آن‌ها هرگز‌ایده‌های فرهنگی جدیدی از خود ایجاد نکردند. هوش مصنوعی اساساً متفاوت است. هوش مصنوعی می‌تواند‌ایده‌های کاملاً جدید و فرهنگ کاملاً جدید ایجاد کند.

در ابتدا، هوش مصنوعی احتمالاً نمونه‌های اولیه انسانی را تقلید می‌کند که در مراحل ابتدایی از آن‌ها آموزش دیده بود. اما هر سال که می‌گذرد، فرهنگ هوش مصنوعی شجاعانه به جایی می‌رود که هیچ انسانی تا به حال نرفته است. هزاران سال است که انسان‌ها در درون رویا‌های انسان‌های دیگر زندگی کرده‌اند. در دهه‌های آینده ممکن است خود را در درون رویا‌های یک هوش بیگانه زندگی کنیم.

ترس از هوش مصنوعی تنها در چند دهه گذشته بشر را آزار داده است. اما هزاران سال است که انسان‌ها توسط ترس بسیار عمیق‌تری درگیر بوده‌اند. ما همیشه از قدرت داستان‌ها و تصاویر برای دستکاری ذهن و ایجاد توهم قدردانی کرده‌ایم. در نتیجه، از زمان‌های قدیم، انسان‌ها از گرفتار شدن در دنیای توهم‌ها می‌ترسیدند.

در قرن هفدهم رنه دکارت از این می‌ترسید که شاید یک شیطان بدخواه او را در دنیایی از توهمات به دام انداخته باشد و هر آنچه را که می‌دید و می‌شنید خلق می‌کرد. در یونان باستان، افلاطون تمثیل غار معروف را بیان کرد که در آن گروهی از مردم تمام عمر خود را در داخل غار به زنجیر بسته‌اند و رو به دیواری خالی هستند. و سایه‌های مختلفی را روی دیواره غار مشاهده می‌کنند. زندانیان توهماتی را که در آنجا می‌بینند با واقعیت اشتباه می‌گیرند.

در هند باستان، حکیمان بودایی و هندو اشاره کردند که همه انسان‌ها در دام مایا زندگی می‌کردند – دنیای توهمات. آنچه ما معمولاً به عنوان واقعیت در نظر می‌گیریم اغلب فقط تخیل در ذهن خودمان است. مردم ممکن است به دلیل اعتقادشان به این یا آن توهم، جنگ‌های کاملی به راه بیندازند، دیگران را بکشند و خودشان مایل به کشته شدن باشند.

انقلاب هوش مصنوعی ما را با دیو دکارت، با غار افلاطون، با مایا‌ها روبرو می‌کند. اگر مراقب نباشیم، ممکن است در پشت پرده‌ای از توهمات به دام بیفتیم، که نمی‌توانیم آنها را بزداییم – یا حتی متوجه باشیم که وجود دارد.

البته می‌توان از قدرت جدید هوش مصنوعی برای اهداف خوبی نیز استفاده کرد. من به این موضوع نمی‌پردازم، زیرا افرادی که هوش مصنوعی را توسعه می‌دهند به اندازه کافی در مورد آن صحبت می‌کنند. کار مورخان و فیلسوفانی مانند من این است که به خطرات آن اشاره کنند. اما مطمئناً هوش مصنوعی می‌تواند از راه‌های بی‌شماری به ما کمک کند، از یافتن درمان‌های جدید برای سرطان گرفته تا کشف راه حل‌هایی برای بحران زیست محیطی. سؤالی که ما با آن روبرو هستیم این است که چگونه مطمئن شویم که ابزار‌های هوش مصنوعی جدید به جای اینکه برای مقاصد بد استفاده شوند، برای اهدافخوب استفاده می‌شوند. برای انجام این کار، ابتدا باید از قابلیت‌های واقعی این ابزار‌ها قدردانی کنیم.

از سال ۱۹۴۵ می‌دانیم که فناوری هسته‌ای می‌تواند انرژی ارزان‌قیمتی را به نفع انسان‌ها تولید کند ، اما همچنین می‌تواند تمدن بشری را به طور فیزیکی نابود کند. بنابراین، ما کل نظم بین‌المللی را برای محافظت از بشریت و اطمینان از استفاده از فناوری هسته‌ای در درجه اول برای مقاصد خوب، تغییر دادیم. ما اکنون باید با یک سلاح کشتار جمعی جدید دست و پنجه نرم کنیم که می‌تواند دنیای ذهنی و اجتماعی ما را نابود کند.

ما هنوز هم می‌توانیم ابزار‌های هوش مصنوعی جدید را تنظیم کنیم، اما باید سریع عمل کنیم. در حالی که سلاح‌های هسته‌ای نمی‌توانند خودشان سلاح‌های هسته‌ای قوی‌تری اختراع کنند، هوش مصنوعی می‌تواند هوش مصنوعی را به طور تصاعدی قدرتمندتر کند.

اولین قدم مهم این است که قبل از انتشار ابزار‌های قدرتمند هوش مصنوعی در حوزه عمومی، بررسی‌های ایمنی دقیقی را درخواست کنید. همانطور که یک شرکت داروسازی نمی‌تواند دارو‌های جدید را قبل از آزمایش عوارض جانبی کوتاه‌مدت و بلندمدت آن‌ها منتشر کند، شرکت‌های فناوری نیز نباید ابزار‌های هوش مصنوعی جدید را قبل از ایمن‌سازی منتشر کنند. ما برای فناوری جدید به معادلی از سازمان غذا و دارو نیاز داریم.

آیا کاهش سرعت استقرار عمومی هوش مصنوعی باعث نمی‌شود که دموکراسی‌ها از رژیم‌های استبدادی بی‌رحم‌تر عقب بمانند؟ درست برعکس. استقرار غیرقانونی هوش مصنوعی هرج و مرج اجتماعی ایجاد می‌کند که به نفع خودکامه‌ها خواهد بود و دموکراسی‌ها را خراب می‌کند. دموکراسی یک گفتگو است و مکالمات بر زبان تکیه دارد. وقتی هوش مصنوعی زبان را هک می‌کند، می‌تواند توانایی ما برای گفتگو‌های معنادار را از بین ببرد و در نتیجه دموکراسی را از بین ببرد.

ما به تازگی در اینجا روی زمین با یک هوش بیگانه مواجه شده‌ایم. ما چیز زیادی در مورد آن نمی‌دانیم، جز اینکه ممکن است تمدن ما را نابود کند. ما باید به استقرار غیرمسئولانه ابزار‌های هوش مصنوعی در حوزه عمومی پایان دهیم و هوش مصنوعی را قبل از اینکه ما را تنظیم کند، تنظیم کنیم. و اولین مقرراتی که پیشنهاد می‌کنم این است که این اجبار جا بیفید که محصولات هوش مصنوعی به عنوان تولید شده توسط هوض مصنوعی متمایز شوند.

اگر من با کسی صحبت می‌کنم و نمی‌توانم بگویم که انسان است یا هوش مصنوعی، این پایان دموکراسی است.

این متن توسط یک انسان تولید شده است!

یا شاید هم نه!

  • منبع
  • یک پزشک

دیدگاه

شما هم می توانید دیدگاه خود را ثبت کنید



کد امنیتی کد جدید