google-ai-deal-pentagon-classified-work
گوگل قرارداد هوش مصنوعی با پنتاگون برای پروژه‌های محرمانه امضا کرد در حالی که کارکنان اعتراض دارند
گوگل با امضای قراردادی با پنتاگون برای کارهای نظامی محرمانه با واکنش‌های داخلی مواجه شده است.
2026-04-28 منبع:decrypt.co

به طور خلاصه

  • طبق گزارش‌ها، گوگل برای ارائه مدل‌های هوش مصنوعی به پنتاگون جهت کارهای محرمانه، قراردادی امضا کرده است.
  • پنتاگون توافقات مشابهی را با OpenAI و xAI نیز امضا کرده است.
  • کارمندان گوگل از ساندار پیچای، مدیرعامل این شرکت، می‌خواهند تا از پذیرش وظایف محرمانه هوش مصنوعی خودداری کند.

بر اساس گزارشی از The Information، گوگل قراردادی را برای ارائه مدل‌های هوش مصنوعی خود به پنتاگون جهت انجام کارهای محرمانه امضا کرده است.

افراد آشنا با این توافق به نیویورک تایمز گفتند که این قرارداد به وزارت دفاع آمریکا اجازه می‌دهد تا از هوش مصنوعی گوگل برای «هرگونه هدف دولتی قانونی» استفاده کند. این عبارت، شبیه به قراردادهایی است که پنتاگون ماه گذشته با OpenAI و xAI برای استفاده از مدل‌های هوش مصنوعی آنها در شبکه‌های طبقه‌بندی شده امضا کرد.

سخنگوی گوگل به نیویورک تایمز گفت: «ما مفتخریم که بخشی از کنسرسیومی گسترده از آزمایشگاه‌های برجسته هوش مصنوعی و شرکت‌های فناوری و ابری هستیم که خدمات و زیرساخت‌های هوش مصنوعی را در حمایت از امنیت ملی ارائه می‌دهند.» وی افزود: «ما همچنان به اجماع بخش خصوصی و عمومی پایبندیم که هوش مصنوعی نباید برای نظارت گسترده داخلی یا تسلیحات خودکار بدون نظارت انسانی مناسب استفاده شود.»

گوگل بلافاصله به درخواست Decrypt برای اظهارنظر پاسخ نداد.

اگرچه جزئیات این قرارداد فاش نشده است، اما پیش از امضای آن، صدها کارمند گوگل نامه‌ای سرگشاده به ساندار پیچای، مدیرعامل شرکت، امضا کردند و از او خواستند که سیستم‌های هوش مصنوعی این شرکت را در اختیار پنتاگون قرار ندهد.

در این نامه آمده است: «ما می‌خواهیم هوش مصنوعی به نفع بشریت باشد؛ نه اینکه به شیوه‌های غیرانسانی یا بسیار مضر مورد استفاده قرار گیرد.» «در حال حاضر، تنها راه برای تضمین اینکه گوگل با چنین آسیب‌هایی مرتبط نشود، رد هرگونه وظیفه محرمانه است. در غیر این صورت، چنین استفاده‌هایی ممکن است بدون اطلاع ما یا قدرت توقف آنها رخ دهد.»

این نامه استدلال می‌کند که سیستم‌های هوش مصنوعی «اشتباه می‌کنند» و می‌توانند «قدرت را متمرکز کنند»، و معتقد است که گوگل مسئولیت دارد تا از «غیراخلاقی‌ترین و خطرناک‌ترین کاربردهای» خود، از جمله «تسلیحات خودمختار مرگبار و نظارت گسترده» جلوگیری کند.

کارمندان هشدار می‌دهند که «تصمیم اشتباه در حال حاضر، آسیب جبران‌ناپذیری به شهرت، تجارت و نقش گوگل در جهان وارد خواهد کرد.»

پنتاگون از ژانویه، زمانی که پیت هگسث، وزیر دفاع، گفت که این فناوری باید در سراسر ارتش ادغام شود، تلاش‌های خود را برای تضمین توافق با شرکت‌های بزرگ هوش مصنوعی تسریع بخشیده است.

این نامه شکاف رو به رشد بین ارتش و برخی از توسعه‌دهندگان هوش مصنوعی را در مورد نحوه استفاده از این فناوری در جنگ برجسته می‌کند.

در ماه مارس، پنتاگون شرکت Anthropic را به عنوان «خطر زنجیره تامین» معرفی کرد و عملاً این استارتاپ مستقر در سانفرانسیسکو را از همکاری با دولت فدرال منع کرد، زیرا مدیرعامل آن، داریو آمودی، از اجازه استفاده نامحدود از مدل‌های هوش مصنوعی خود امتناع کرده بود. Anthropic از آن زمان از پنتاگون به دلیل این اقدام شکایت کرده و در عین حال به دنبال ادامه همکاری با سایر بخش‌های دولت است.

با وجود مخالفت کارمندان، به نظر می‌رسد گوگل در حال پیشبرد قرارداد خود با پنتاگون است، چرا که وزارت دفاع استفاده از هوش مصنوعی را در عملیات‌های طبقه‌بندی شده خود گسترش می‌دهد.

هگسث در سخنرانی خود در پایگاه فضایی استاربیس ایلان ماسک در ژانویه، گفت: «به زبان ساده، ایالات متحده باید در رقابت استراتژیک برای برتری فناوری قرن بیست و یکم پیروز شود» و این امر را «بسیار دیر شده» خواند.

وی گفت: «به زودی، ما مدل‌های پیشرو هوش مصنوعی جهان را در هر شبکه طبقه‌بندی نشده و طبقه‌بندی شده در سراسر وزارتخانه خود خواهیم داشت.»

رمزارز های محبوب
همین حالا ثبت‌نام کنید، هیچ به‌روزرسانی‌ای را از دست ندهید!