fallback

Технологични гиганти, спрете да се опитвате да създавате божествен ИИ

Миналия месец група академични и корпоративни AI изследователи публикуваха статия, в която призоваха технологичните компании да спрат да превръщат AGI в единствената крайната цел на AI изследванията

19:40 | 17 март 2025
Автор: Парми Олсън

Имаме ChatGPT, защото Сам Алтман искаше да създаде „Бог“.

Въпреки целия шум, чатботът е само прототип по пътя към по-висша цел – AGI или „общ изкуствен интелект“, който надминава когнитивните способности на човека. Когато Алтман съосновава OpenAI през 2015 г., той избира тази крайна цел за неправителствената организация. Пет години по-рано Демис Хасабис създава DeepMind Technologies Ltd., която сега е основното AI поделение на Google, с идентична цел – AGI. Мотивите им са утопични: според Алтман AGI би създало финансова изобилие и „обща полза“ за човечеството. Според Хасабис то би излекувало рака и решило климатичните промени.

Тези благородни намерения обаче имат няколко проблема. Първо, финансовите стимули на големите технологични фирми вероятно ще насочат усилията за AGI към това те да печелят, преди всичко останало. Ранните алтруистични идеи на Алтман и Хасабис отстъпиха в последните години, когато бумът в генеративния AI отприщи надпревара за „победа“, каквото и да означава това. През последните години сайтът на DeepMind премахна съдържанието за здравните изследвания или откриването на нови източници на енергия и стана по-продуктово ориентиран, рекламирайки водещата AI платформа на Google – „Gemini“. Алтман все още говори за полза за човечеството, но вече не е начело на неправителствена организация „освободена от финансови задължения“, каквато беше OpenAI при основаването ѝ през 2015 г., а по-скоро е продуктово подразделение на Microsoft Corp., която досега е наляла около 13 млрд. долара в неговата компания.

Вторият проблем е, че дори хората, които разработват AGI, действат при липса на прозрачност, въпреки че са убедени в своите прогнози за графика. Изпълнителният директор на Anthropic, Дарио Амодей, казва, че ще имаме AGI до 2027 г. Алтман твърди, че е на „няколко хиляди дни“ разстояние и че още тази година ще видим първите AI агенти, които ще се включат в работната сила. Милиардерът Масайоши Сон смята, че ще го постигнем до две-три години. Езра Клайн, подкастър в New York Times, който редовно кани AI лидери, наскоро писа: „Наистина предстои да се случи. Ще получим общ изкуствен интелект.“

Но ако попитате технологичните лидери какво всъщност означава AGI, ще получите объркващо разнообразие от отговори. Хасабис го описва като софтуер, който „постига човешко ниво“. Алтман казва, че AGI ще „превъзхожда хората“. И двамата, както и Амодей, често се стараят да говорят колко е сложно и трудно да се дефинира AGI. Алтман също го е нарекъл „слабо дефиниран термин“. А главният изпълнителен директор на Microsoft, Сатя Надела, дори омаловажи стремежа към AGI като „безсмислено преследване на показатели“.

Никак не се успокоявам, като виждам, че най-големите имена в AI си разменят критики или избягват дефиницията на своя „Северен полюс“, докато същевременно се втурват към него. И не става дума само за това, че компютърни специалисти, заедно с Илон Мъск, предупреждават за големи рискове (дори екзистенциални за човечеството), ако стигнем до AGI. Притеснително е също, че преследването на слабо дефинирана цел отваря вратата за нежелани последици.

По-смислена цел би била по-тясна и по-конкретна – например системи, които намаляват грешките в медицинската диагностика с 30%. Или в образованието – които подобряват успеваемостта по математика с 15%. Или системи, които да оптимизират енергийните мрежи и да свалят въглеродните емисии с 20%. Такива цели не само имат ясни показатели за успех, а и реално обслужват човешките нужди, точно както първоначално си представяха Алтман и Хасабис.

Няма доказателство, че ако компания като Google или Microsoft (или китайската DeepSeek) обяви, че най-накрая е създала AGI, ще притежава ключа към лекуването на рак, решаването на климатичната криза или увеличаване на световното богатство с „трилиони“ долари – както обещава Алтман. Надпреварата за върха е толкова ожесточена, че по-скоро ще видим как „победителите“ се обявяват за пазители на конкурентно предимство, вдигат цени и ограничават споделянето на информация. Ще възникнат и въпроси за геополитическите последици. Когато основаваше OpenAI, Алтман заяви, че ако някой друг изследователски екип се окаже по-близо до AGI, те биха прекратили своята работа и биха си сътрудничили. Днес това звучи по-скоро като илюзия.

Миналия месец група академични и корпоративни AI изследователи публикуваха статия, в която призоваха технологичните компании да спрат да превръщат AGI в единствената крайната цел на AI изследванията. Те твърдят, че понятието е твърде неясно, за да се измерва качествено, което води до лоша наука, и изключва ключови заинтересовани страни – т.е. хората, чийто живот ще бъде променен. През 2025 г. технологичните лидери имат далеч по-голяма обществена власт, отколкото в началото на новия век – достатъчна, за да променят културата и навиците на хората чрез социалните мрежи, а сега и масово да засягат работни места чрез AI, при слаби механизми на контрол.

Изследователите, сред които е бившият ръководител на екипа по AI етика на Google, Маргарет Мичъл, предлагат не само компаниите да включат повече разнообразни гласове от различни общности и области на експертиза, но и да се откажат от неясното говорене за AGI, наречено от един учен „възторг за нърдовете“ (rapture for nerds).

Манията „по-голямото е по-добро“ продължава твърде дълго в Силициевата долина, както и натискът между хора като Мъск и Алтман за най-голям AI модел или най-многобройни графични чипове Nvidia. Дж. Робърт Опенхаймер изразява дълбоко съжаление за ролята си като „баща на атомната бомба“ и днес олицетворява идеята, че „само защото можем нещо, не означава, че трябва да го правим.“

Вместо да съжаляват после, техническите лидери биха могли да избягват същия капан – да гонят слава и „да строят богове“, особено при положение, че ползите съвсем не са сигурни.

fallback
fallback