Google заличава текст относно оръжията от принципите си за AI

Това е част от цялостната промяна в политиките на технологочните гиганти след завръщането на Тръмп и създава притеснения за етични нарушения

13:31 | 5 февруари 2025
Автор: Джулия Лав, Оливия Солон и Дейви Алба
Снимка: Bloomberg L.P.
Снимка: Bloomberg L.P.

Google e премахнала пасаж от правилата си за използване на изкуствен интелект, в който обещава да избягва използването на технологията за потенциално вредни цели, като например оръжия.

Принципите за изкуствен интелект на компанията преди са включвали откъс, озаглавен „Приложения на изкуствения интелект, които няма да използваме“, като „технологии, които причиняват или могат да причинят цялостна вреда“, в това число и оръжия, показват екранни снимки, разгледани от Bloomberg. Този текст вече не фигурира на страницата.

На запитване за коментар говорител на Google изпраща публикация, публикувана във вторник.

„Вярваме, че демокрациите трябва да са водещи в развитието на изкуствения интелект, като се ръководят от основни ценности като свобода, равенство и зачитане на човешките права“, пишат в публикацията Джеймс Манийка, старши вицепрезидент на Google, и Демис Хасабис, който ръководи лабораторията за изкуствен интелект Google DeepMind. „Вярваме, че компаниите, правителствата и организациите, които споделят тези ценности, трябва да работят заедно, за да създават изкуствен интелект, който защитава хората, насърчава глобалния растеж и подкрепя националната сигурност.“

Премахването на клаузата за „вреда“ може да има последици за вида работа, която Google ще извършва, каза Маргарет Мичъл, която е съуправител на екипа за етичен изкуствен интелект в Google, а сега е ръководител на отдела по етика в AI стартъпа Hugging Face.

„Премахването на тази клауза заличава работата, която толкова много хора в областта на етичния изкуствен интелект и активисти са положили в Google, а още по-голям проблем е, че това означава, че компанията вероятно сега ще работи за внедряване на технологии, които могат да убиват хора“, казва тя.

Промяната е част от цялостна тенденция за изменение на политиките на големите технологични компании. През януари Meta Platforms Inc. прекрати голяма част от усилията си за многообразие и приобщаване, като заяви на служителите, че вече няма да се изисква от тях да интервюират кандидати от по-слабо представен произход за свободни позиции. През същия месец Amazon.com Inc. преустанови някои програми за многообразие и приобщаване, като високопоставен ръководител на отдел „Човешки ресурси“ ги нарече „остарели“. Администрацията на президента Доналд Тръмп се противопоставя на инициативите за многообразие.

Трейси Пицо Фрей, която от 2017 г. до 2022 г. е ръководила т.нар. отговорен изкуствен интелект в Google Cloud, споделя, че в работата на нейния екип всеки ден са се ръководили от принципите на изкуствения интелект. „Те ни помолиха да направим дълбок анализ на работата, която вършим във връзка с всеки един от тях“, заявява тя в съобщение. „И аз съм дълбоко убедена, че това направи продуктите ни по-добри. Отговорното използване на изкуствен интелект е източник на доверие. А доверието е необходимо за успеха.“

Служителите на Google отдавна обсъждат как да балансират между етичните проблеми и конкурентната динамика в областта на изкуствения интелект, особено след старта на ChatGPT на OpenAI, който повиши напрежението върху гиганта за търсенето. През 2023 г. някои служители на Googlе са изразили опасения пред Bloomberg, че стремежът на компанията да си възвърне позициите в областта на изкуствения интелект води до етични нарушения.