AI – приятел на човечеството и враг на климата

Изкуственият интелект повече влошава, отколкото решава проблема с климата

20:00 | 26 юни 2024
Автор: Парми Олсън
Снимка: Bloomberg LP
Снимка: Bloomberg LP

има своята цена за световния климат. Центровете за данни, в които се намират мощните ѝ чипове, консумират енергия и изхвърлят въглероден диоксид, а отрезвяващи цифри вече разкриват мащаба на проблема. 

Според неотдавнашен доклад на Goldman Sachs Group до 2030 г. центровете за данни ще използват 8% от електроенергията в САЩ в сравнение с 3% през 2022 г., тъй като търсенето на енергия в тях нараства със 160%.    

Понастоящем изкуственият интелект повече влошава, отколкото решава проблема с климата, както твърдят някои дружества. Eнергийните нужди са толкова големи, че комуналните услуги разширяват плановете си за въглищни централи, докато Microsoft изгражда газови и ядрени съоръжения, за да поддържа работата на сървърите си.   

Всичко това се добавя към нарастващото недоволство от генеративните инструменти за изкуствен интелект. За да не спрат прилива, но и да поддържат целите си за създаване на ИИ "за човечеството", технологичните фирми като OpenAI, Microsoft и Google на Alphabet трябва да увеличат екипите си, които се занимават с проблема с енергията. Това със сигурност би било възможно. Няколко признака на напредък подсказват, че трикът може да се състои в преработване на техните алгоритми.

Генеративните модели на изкуствен интелект като ChatGPT и Claude на Anthropic са впечатляващи, но техните архитектури на невронни мрежи изискват огромни количества енергия, а неразбираемите им процеси на вземане на решения "черната кутия" ги правят трудни за оптимизиране. Сегашното състояние на ИИ е като да се опитваш да захраниш малък автомобил с огромен двигател, който харчи много бензин: той върши работа, но на огромна цена.

Добрата новина е, че тези "двигатели" могат да станат по-малки с по-големи инвестиции. 

Изследователи от Microsoft например са разработили така наречената "1 bit" архитектура, която може да направи големите езикови модели около 10 пъти по-енергийно ефективни от сегашните водещи системи. Този подход опростява изчисленията на моделите, като свежда стойностите до 0 или 1, намалявайки консумацията на енергия, без да се жертва твърде много от производителността. Получената технология не е най-мощната, но е добър пример за "противоположен" подход, който може незабавно да намали разходите и въздействието на ИИ върху околната среда, казва Стивън Марш, основател на базирания в Кеймбридж, Великобритания, стартъп Zetlin, който работи по изграждането на по-ефективни системи.

Марш казва, че има напредък. Неотдавна екипът му е обучил модел на изкуствен интелект, базиран на невронна мрежа, на графичен процесор (GPU) на Nvidia и системата се е нагряла толкова много, че се е наложило да вкарат вентилатори в стаята в продължение на пет дни. Когато стартират същия модел със собствената си технология без невронна мрежа, той използва само 60% от мощността. 

Сегашният подход, казва Марш, е "като да сложиш ракетен двигател на велосипед".

Nvidia също е предприела обещаващи стъпки към решаването на проблема с консумацията на енергия. Преди няколко години тя разработи нов формат за своите чипове, за да обработва изчисленията на изкуствения интелект с по-малки числа, което ги прави по-бързи и по-малко енергоемки. "Само тази малка промяна в силиция спести много енергия", казва Марш. Ако компаниите, разработващи системи за изкуствен интелект, се възползват по-добре от тази промяна, в крайна сметка те биха могли да спестят електроенергия.

Не помага и фактът, че компаниите за AI са в надпревара във въоръжаването. OpenAI и Anthropic са набрали съответно 11,3 млрд. долара и 8,4 млрд. долара, според доставчика на данни PitchBook. Голяма част от тези пари не отиват за набиране на персонал (всяка от тях разполага с работна сила от едва няколкостотин души). Вместо това те се влагат в поддържането на сървъри, които могат да обучават и управляват моделите им, дори когато инвестициите им водят до намаляваща възвръщаемост. (Има данни, че най-новите системи за четене на текст и зрение показват по-малък напредък в области като точност и възможности.) 

Тези компании, както и Google, Microsoft и Amazon, трябва да отделят допълнителни средства за промяна на алгоритмите си, за да пестят енергия и разходи. Колективно, това е правено и преди. Според Goldman Sachs центровете за данни са успели да запазят потреблението си на електроенергия без промяна между 2015 и 2019 г., дори когато работното им натоварване се е утроило, защото операторите им са намерили начини да ги направят по-ефективни.

Главният изпълнителен директор на OpenAI Сам Алтман говори за ядрения синтез като отговор на проблема, като лично е инвестирал 375 млн. долара в предприятие, наречено Helion Energy. Но той може би създава шум около енергийна технология, която няма да бъде комерсиализирана в продължение на няколко десетилетия.

Вместо да възлагат отговорността на футуристичен енергиен източник или на свръхинтелигентен изкуствен интелект, който все още не съществува, технологичните фирми трябва да поставят по-голям акцент върху това да направят моделите си по-енергийно ефективни сега. В края на краищата, откъсването от утвърдените и неефективни системи е начинът, по който тази революция беше стартирана на първо място.