Через потенційні ризики безпеки Космічні сили США тимчасово заборонили своїм співробітникам використовувати генеративний штучний інтелект і великі мовні моделі під час роботи. Про це повідомляє Bloomberg із посиланням на службову записку відомства.
Меморандум для Guardian Workforce не допускає використання урядових даних у веб-інструментах на основі ШІ без спеціального схвалення. У коментарі виданню представники підрозділу збройних сил США підтвердили інформацію.
Глава відділу технологій та інновацій Космічних сил Ліза Коста зазначила, що нейромережі «безсумнівно зроблять революцію в робочих процесах і прискорять виконання завдань співробітниками».
Однак вона висловила занепокоєння з приводу вимог до кібербезпеки та обробки даних, заявивши про необхідність «відповідального» впровадження штучного інтелекту.
За словами засновника ШІ-проєкту Ask Sage Ніколя Чайлан, обмеження вплинули щонайменше на 500 працівників Космічних сил, які використовували його платформу.
Він розкритикував рішення відомства і додав, що інструментами Ask Sage користуються понад 10 000 співробітників в інших підрозділах Міністерства оборони США, зокрема 6500 осіб у Військово-повітряних силах.
Чайлан подав у відставку з посади першого директора з програмного забезпечення в Міноборони 2021 року, звинувативши Пентагон у повільному впровадженні ШІ та заявивши про відставання від Китаю.
Глава Ask Sage також розповів, що деякі співробітники відомства змушені платити за ПЗ «зі своєї кишені», оскільки ШІ-інструменти полегшують написання звітів.
Нагадаємо, у серпні Міноборони оголосило про формування оперативної групи «Ліма» для вивчення і створення генеративного штучного інтелекту. Розроблений продукт буде інтегровано в систему безпеки США.
Раніше американська влада випустила декларацію про використання штучного інтелекту в збройних силах, що включає «людську відповідальність».