وزارت دفاع آمریکا (پنتاگون) در اقدامی بیسابقه مدیرعامل شرکت آنتروپیک را برای نشستی پرتنش احضار کرد. پنتاگون قصد دارد این شرکت را مجبور کند تا محدودیتهای ایمنی هوش مصنوعی خود را برای کاربردهای نظامی، از جمله نظارت دستهجمعی بر شهروندان آمریکایی و توسعه سلاحهای خودکار، لغو کند. مقاومت سرسختانه آنتروپیک در برابر این درخواست باعث شده است تا مقامات نظامی آمریکا این شرکت را به قرارگرفتن در لیست سیاه امنیتی تهدید کنند.
به گزارش نیویورک تایمز، «پیت هگست» (Pete Hegseth)، وزیر جنگ آمریکا، روز سهشنبه «داریو آمودی» (Dario Amodei)، مدیرعامل آنتروپیک، را به واشنگتن فراخواند تا درباره نحوه استفاده ارتش از هوش مصنوعی در سیستمهای طبقهبندیشده گفتگو کنند.
تابستان گذشته، این دو نهاد قراردادی ۲۰۰ میلیون دلاری امضا کردند، اما اکنون پنتاگون میخواهد تمام محدودیتهای ایمنی این قرارداد لغو شوند. مقامات نظامی خواستار مجوزی هستند که به آنها اجازه دهد شبکههای اجتماعی، سوابق رأیگیری و اطلاعات شخصی شهروندان را در مقیاس وسیع کنترل کنند و همچنین سلاحهایی بسازند که بدون دخالت انسان شلیک میکنند. آنتروپیک صراحتاً با این دو خواسته مخالفت کرده و بر حفظ چارچوبهای ایمنی پافشاری میکند.
وزارت دفاع آمریکا تهدید کرده است که در صورت عدم همکاری، آنتروپیک را به عنوان «خطری در زنجیره تأمین» معرفی میکند؛ برچسبی که معمولاً برای دشمنان خارجی مانند شرکت چینی هواوی استفاده میشود. گزارشها نشان میدهند که این نشست به هیچوجه دوستانه نبوده و مقامات دفاعی به آمودی یک اولتیماتوم جدی دادهاند. اگر آنتروپیک در لیست خطر زنجیره تأمین قرار بگیرد، قرارداد ۲۰۰ میلیون دلاری آن بلافاصله لغو میشود.

اما فاجعه اصلی برای این شرکت فراتر از یک قرارداد است؛ این برچسب امنیتی تمام پیمانکاران دفاعی آمریکا را مجبور میکند تا استفاده از هوش مصنوعی کلود را در سیستمهای خود متوقف کنند. با توجه به اینکه ۸ شرکت از ۱۰ شرکت برتر مجله فورچون در فرایندهای کاری خود از کلود استفاده میکنند، این تحریم میتواند ضربه جبرانناپذیری به اکوسیستم تجاری آنتروپیک وارد کند.
ارتش آمریکا برای تحلیل دادههای حساس خود وابستگی شدیدی به فناوری آنتروپیک و شرکت تحلیل داده پالانتیر دارد. نیروهای ویژه آمریکا در عملیات سوم ژانویه که منجر به دستگیری «نیکلاس مادورو»، رئیسجمهور سابق ونزوئلا شد، از هوش مصنوعی کلود استفاده کردند.
این اولین باری بود که ارتش آمریکا از یک هوش مصنوعی تجاری در یک مأموریت محرمانه استفاده کرد. خود مقامات پنتاگون نیز اعتراف میکنند که مدلهای رقیب هنوز برای کارهای طبقهبندیشده به اندازه کلود قابلاعتماد نیستند و جایگزینی آن دردسرهای بزرگی به همراه خواهد داشت.