
بر اساس گزارشی از The Information، گوگل قراردادی را برای ارائه مدلهای هوش مصنوعی خود به پنتاگون جهت انجام کارهای محرمانه امضا کرده است.
افراد آشنا با این توافق به نیویورک تایمز گفتند که این قرارداد به وزارت دفاع آمریکا اجازه میدهد تا از هوش مصنوعی گوگل برای «هرگونه هدف دولتی قانونی» استفاده کند. این عبارت، شبیه به قراردادهایی است که پنتاگون ماه گذشته با OpenAI و xAI برای استفاده از مدلهای هوش مصنوعی آنها در شبکههای طبقهبندی شده امضا کرد.
سخنگوی گوگل به نیویورک تایمز گفت: «ما مفتخریم که بخشی از کنسرسیومی گسترده از آزمایشگاههای برجسته هوش مصنوعی و شرکتهای فناوری و ابری هستیم که خدمات و زیرساختهای هوش مصنوعی را در حمایت از امنیت ملی ارائه میدهند.» وی افزود: «ما همچنان به اجماع بخش خصوصی و عمومی پایبندیم که هوش مصنوعی نباید برای نظارت گسترده داخلی یا تسلیحات خودکار بدون نظارت انسانی مناسب استفاده شود.»
گوگل بلافاصله به درخواست Decrypt برای اظهارنظر پاسخ نداد.
اگرچه جزئیات این قرارداد فاش نشده است، اما پیش از امضای آن، صدها کارمند گوگل نامهای سرگشاده به ساندار پیچای، مدیرعامل شرکت، امضا کردند و از او خواستند که سیستمهای هوش مصنوعی این شرکت را در اختیار پنتاگون قرار ندهد.
در این نامه آمده است: «ما میخواهیم هوش مصنوعی به نفع بشریت باشد؛ نه اینکه به شیوههای غیرانسانی یا بسیار مضر مورد استفاده قرار گیرد.» «در حال حاضر، تنها راه برای تضمین اینکه گوگل با چنین آسیبهایی مرتبط نشود، رد هرگونه وظیفه محرمانه است. در غیر این صورت، چنین استفادههایی ممکن است بدون اطلاع ما یا قدرت توقف آنها رخ دهد.»
این نامه استدلال میکند که سیستمهای هوش مصنوعی «اشتباه میکنند» و میتوانند «قدرت را متمرکز کنند»، و معتقد است که گوگل مسئولیت دارد تا از «غیراخلاقیترین و خطرناکترین کاربردهای» خود، از جمله «تسلیحات خودمختار مرگبار و نظارت گسترده» جلوگیری کند.
کارمندان هشدار میدهند که «تصمیم اشتباه در حال حاضر، آسیب جبرانناپذیری به شهرت، تجارت و نقش گوگل در جهان وارد خواهد کرد.»
پنتاگون از ژانویه، زمانی که پیت هگسث، وزیر دفاع، گفت که این فناوری باید در سراسر ارتش ادغام شود، تلاشهای خود را برای تضمین توافق با شرکتهای بزرگ هوش مصنوعی تسریع بخشیده است.
این نامه شکاف رو به رشد بین ارتش و برخی از توسعهدهندگان هوش مصنوعی را در مورد نحوه استفاده از این فناوری در جنگ برجسته میکند.
در ماه مارس، پنتاگون شرکت Anthropic را به عنوان «خطر زنجیره تامین» معرفی کرد و عملاً این استارتاپ مستقر در سانفرانسیسکو را از همکاری با دولت فدرال منع کرد، زیرا مدیرعامل آن، داریو آمودی، از اجازه استفاده نامحدود از مدلهای هوش مصنوعی خود امتناع کرده بود. Anthropic از آن زمان از پنتاگون به دلیل این اقدام شکایت کرده و در عین حال به دنبال ادامه همکاری با سایر بخشهای دولت است.
با وجود مخالفت کارمندان، به نظر میرسد گوگل در حال پیشبرد قرارداد خود با پنتاگون است، چرا که وزارت دفاع استفاده از هوش مصنوعی را در عملیاتهای طبقهبندی شده خود گسترش میدهد.
هگسث در سخنرانی خود در پایگاه فضایی استاربیس ایلان ماسک در ژانویه، گفت: «به زبان ساده، ایالات متحده باید در رقابت استراتژیک برای برتری فناوری قرن بیست و یکم پیروز شود» و این امر را «بسیار دیر شده» خواند.
وی گفت: «به زودی، ما مدلهای پیشرو هوش مصنوعی جهان را در هر شبکه طبقهبندی نشده و طبقهبندی شده در سراسر وزارتخانه خود خواهیم داشت.»