سال گذشته، یک هکر به سیستمهای پیامرسانی داخلی شرکت OpenAI، سازنده ChatGPT، نفوذ کرد و اطلاعاتی درباره طراحی فناوریهای هوش مصنوعی این شرکت سرقت کرد.
این هکر جزئیات مربوط به گفتگوهای داخلی کارمندان درباره فناوریهای جدید OpenAI را به سرقت برد، اما نتوانست به سیستمهایی که هوش مصنوعی شرکت در آنها قرار دارد دسترسی پیدا کند. این موضوع توسط دو فرد مطلع از حادثه تایید شده.
واکنش داخلی به نفوذ امنیتی
مدیران OpenAI در نشست عمومی در دفتر سانفرانسیسکو در آوریل ۲۰۲۳ این حادثه را به کارکنان اعلام کردند، اما تصمیم گرفتند این خبر را به صورت عمومی منتشر نکنند زیرا هیچ اطلاعاتی درباره مشتریان یا شرکای شرکت به سرقت نرفته بود. آنها این حادثه را تهدیدی برای امنیت ملی ندانستند زیرا معتقد بودند هکر یک فرد خصوصی بوده و ارتباطی با دولتهای خارجی ندارد. به همین دلیل، شرکت OpenAI این موضوع را به افبیآی یا نهادهای دیگر اطلاع نداد.
نگرانیها از دسترسی دشمنان خارجی آمریکا
برای برخی از کارکنان OpenAI، این حادثه نگرانیهایی را ایجاد کرد که دشمنان خارجی مثل چین ممکن است فناوریهای هوش مصنوعی را سرقت کنند که در آینده میتواند امنیت ملی آمریکا را به خطر بیندازد. این مسئله همچنین سوالاتی درباره جدیت OpenAI در مورد امنیت اطلاعات مطرح کرد و نشان داد که اختلافاتی درون شرکت در مورد ریسکهای هوش مصنوعی وجود دارد.
اعتراضات به اقدامات امنیتی
پس از این نفوذ، لئوپولد آشنبرنر، مدیر برنامه فنی در OpenAI، یادداشتی به هیئت مدیره شرکت ارسال کرد و اظهار داشت که شرکت به اندازه کافی از فناوریهای خود در برابر سرقتهای خارجی محافظت نمیکند. او به دلیل افشای اطلاعات دیگر از شرکت اخراج شد و این اخراج را انگیزهای سیاسی دانست. آشنبرنر در یک پادکست به این نفوذ اشاره کرد و بار دیگر نگرانیهای خود را تکرار کرد.
نگرانیهای امنیتی و ملی
ترس از این که یک هکر آمریکایی ممکن است با چین ارتباط داشته باشد، بیپایه نیست. ماه گذشته، برد اسمیت، رئیس مایکروسافت، در کنگره درباره چگونگی استفاده هکرهای چینی از سیستمهای مایکروسافت برای حمله به شبکههای دولتی فدرال صحبت کرد. با این حال، طبق قوانین فدرال و ایالتی کالیفرنیا، OpenAI نمیتواند افراد را به دلیل ملیتشان از کار در شرکت منع کند.
تلاش برای بهبود امنیت
OpenAI تنها شرکتی نیست که سیستمهای قدرتمندی با استفاده از فناوریهای هوش مصنوعی ایجاد میکند. شرکتهایی مانند متا (صاحب فیسبوک و اینستاگرام) طرحهای خود را به صورت کد باز با دیگران به اشتراک میگذارند و معتقدند که خطرات ناشی از فناوریهای کنونی هوش مصنوعی کم است.
نگرانیهای آینده
با این حال، برخی محققان و مدیران فناوری نگرانیهایی دارند که هوش مصنوعی در آینده میتواند سلاحهای زیستی جدیدی را ایجاد کند یا به سیستمهای کامپیوتری دولتی نفوذ کند. برخی حتی معتقدند که ممکن است باعث نابودی بشریت شود. تعدادی از شرکتها از جمله OpenAI و Anthropic در حال حاضر عملیات فنی خود را به شدت محافظت میکنند و کمیتهای برای بررسی خطرات فناوریهای آینده ایجاد کردهاند.
شرکتهای چینی نیز سیستمهای قدرتمندی ایجاد میکنند که تقریبا به قدرت سیستمهای پیشرو در ایالات متحده نزدیک هستند. بر اساس برخی معیارها، چین بزرگترین تولیدکننده استعدادهای هوش مصنوعی در جهان است.
نیاز به کنترلهای سختگیرانه تر
برخی محققان و رهبران امنیت ملی معتقدند که الگوریتمهای ریاضی در قلب سیستمهای هوش مصنوعی کنونی، هرچند که امروز خطرناک نیستند، میتوانند در آینده خطرناک شوند و خواستار کنترلهای سختگیرانهتر بر آزمایشگاههای هوش مصنوعی هستند. به گفته سوزان رایس، مشاور سیاست داخلی سابق رئیس جمهور بایدن و مشاور امنیت ملی سابق رئیس جمهور اوباما، «حتی اگر بدترین سناریوها احتمالی کم داشته باشند، اما تاثیرات بالایی دارند، وظیفه ماست که آنها را جدی بگیریم.»
دیدگاه