Site icon iNauka

Шаг в новый этап развития опасных технологий: Google отменяет запрет на создание оружия с помощью ИИ

Google снял запрет на использование ИИ для военных целей, открыв дорогу для создания технологий, которые могут угрожать безопасности людей.

Компания Google сделала значительное изменение в своей политике по искусственному интеллекту, удалив пункт о запрете разработки технологий, способных привести к ущербу для людей, в том числе создание оружия. Эксперты обеспокоены возможными последствиями. Об этомпишет Bloomberg.

Компания Alphabet Inc., материнская структура Google, недавно удалила из своих принципов работы с искусственным интеллектом (ИИ) пункт о запрете разработки оружия и других технологий, которые могут принести вред людям.

Ранее в принципах ИИ компании был раздел под названием “Приложения ИИ, которые мы не будем разрабатывать”, где указывались “технологии, которые наносят или могут нанести общий вред”, включая оружие.

Удаление пункта о “вреде” может повлиять на тип работы, который теперь будет выполнять Google, сообщилаМаргарет Митчелл, которая возглавляла команду по этическому ИИ в Google и теперь является главным научным сотрудником по этике в стартапе Hugging Face.

“Удаление этого пункта стирает ту работу, которую так много людей в области этического ИИ и активистских движений сделали в Google, и что более проблематично, это означает, что теперь Google, вероятно, будет работать над внедрением технологий, которые могут убивать людей”, — сказала она.

Несмотря на это, представители компании подчеркивают, что в их работе с ИИ по-прежнему будут учитываться такие ценности, как свобода, равенство и уважение прав человека.

Джеймс Манийка, старший вице-президент компании, и Демис Хассабис, генеральный директор Google DeepMind, в совместном заявлении отметили, что для разработки ИИ, защищающего людей, важно сотрудничество с организациями, разделяющими эти ценности.

Однако данное решение в целом уже вызывает обеспокоенность от использования ИИ в опасных и потенциально смертоносных целях.

Как ранееDialog.UA сообщал, специалисты Microsoft обнаружили, что лица, связанные с китайским чат-ботом DeepSeek,воровали большой объем данных с помощью интерфейса OpenAI.

Также, напомним, искусственный интеллект самостоятельно разработалракетный двигатель.

По материалам: Диалог

Exit mobile version