AI машините не „халюцинират“. Но създателите им определено го правят
Шефовете на големите технологични компании искат да вярваме, че генеративният AI ще бъде от полза за човечеството. Те се заблуждават
Обновен: 09:41 | 15 май 2023
В многобройните дебати, които се въртят около бързото внедряване на така наречения изкуствен интелект, има сравнително неясно схващане, фокусирано върху избора на думата „халюцинирам“.
Това е терминът, на който са се спрели архитектите и пропагандаторите на генеративния AI, за да характеризират отговорите, обслужвани от чатботове, които са изцяло измислени или напълно грешни. Като например, когато попитате бот за дефиниция на нещо, което не съществува и той, доста убедително, ви даде такава, пълна с измислени бележки под линия. „Никой в областта все още не е разрешил проблемите с халюцинациите“, каза наскоро в интервю Сундар Пичай, главен изпълнителен директор на Google и Alphabet.
Това е вярно – но защо въобще да наричаме грешките „халюцинации“? Защо не алгоритмични боклуци? Или бъгове? Е, халюцинациите се отнасят до мистериозната способност на човешкия мозък да възприема явления, които не съществуват, поне не и в конвенционалните, материалистични термини. Чрез присвояване на дума, често използвана в психологията и различни форми на мистицизъм, евангелистите на AI, макар и да признават погрешността на своите машини, едновременно подхранват най-ценната митология на сектора: че чрез изграждането на тези големи езикови модели и обучаването им на всичко, което ние, хората, сме писали, казвали и представяли визуално, те създават жив интелект и са на прага да предизвикат еволюционен скок за нашия вид. Как иначе биха могли ботове като Bing и Bard да халюцинират там някъде в етера?
Изкривените халюцинации обаче наистина се развиват в света на изкуствения интелект – но не при ботовете; технологичните изпълнителни директори са тези, които ги отприщиха, заедно с фаланга от техните фенове, които са в плен на диви халюцинации, както индивидуално, така и колективно. Тук дефинирам халюцинациите не в мистичния или психеделичен смисъл, състояния на промяна на съзнанието, които наистина могат да помогнат за достъп до дълбоки, невъзприемани преди това истини. Не. Тези хора просто не са на себе си: виждат или поне твърдят, че виждат доказателства, които изобщо не съществуват, дори създават цели светове, които ще използват техните продукти за нашето универсално издигане и образование.
Генеративният AI ще сложи край на бедността, казват ни. Ще излекува всички болести. Това ще разреши изменението на климата. Това ще направи работата ни по-смислена и вълнуваща. Това ще отприщи живот на свободно време и съзерцание, помагайки ни да си върнем човечността, което сме загубили през късната капиталистическа механизация. Това ще сложи край на самотата. Това ще направи нашите правителства рационални и отзивчиви. Опасявам се, че това са истинските AI халюцинации и всички ние ги чуваме непрекъснато, откакто Chat GPT стартира в края на миналата година.
Има свят, в който генеративният AI, като мощен инструмент за предсказуеми изследвания и изпълнител на досадни задачи, наистина може да бъде управляван в полза на човечеството, други животински видове и нашия споделен дом. Но за да се случи това, тези технологии ще трябва да бъдат разгърнати в един значително различен икономически и социален ред от нашия, който има за своя цел задоволяването на човешките нужди и защитата на планетарните системи, които поддържат целия живот.
И както тези от нас, които не са със замъглено съзнание, добре разбират, сегашната ни система не е нищо подобно. По-скоро тя е изградена, за да максимизира извличането на богатство и печалба – както от хората, така и от естествения свят – реалност, която ни доведе до това, което можем да мислим за нея като техно-некро етап на капитализма. В тази реалност на свръхконцентрирана власт и богатство AI – далеч от това да оправдае всички тези утопични халюцинации – е много по-вероятно да се превърне в страховит инструмент за по-нататъшно лишаване от собственост и разграбване.
Ще обясня защо е така. Но първо е полезно да помислим за целта, на която служат утопичните халюцинации за AI. Каква работа вършат тези доброжелателни истории в културата, докато срещаме тези странни нови инструменти? Ето една хипотеза: те са силните и привлекателни истории за прикритие за това, което може да се окаже най-голямата и най-значимата кражба в човешката история. Защото това, на което сме свидетели, е, че най-богатите компании в историята (Microsoft, Apple, Google, Meta, Amazon …) едностранно изземват цялото човешко знание, което съществува в дигитална форма, и го изолират в частни продукти, много от които ще да се насочат директно срещу хората, чийто труд е обучил машините без тяхното разрешение или съгласие.
Това не трябва да е законно. В случай на защитен с авторски права материал, за който сега знаем, че е обучил моделите (вероятно и уебсайтът, през който четете това), са заведени различни съдебни дела, които ще твърдят, че това е очевидно незаконно. Защо, например, на компания с печалба трябва да бъде разрешено да захранва картини, рисунки и снимки на живи художници в програма като Stable Diffusion или Dall-E 2, така че след това да може да се използва за генериране на копия на работата на същите тези художници, като ползите са за всички, освен за самите артисти?
Художничката и илюстраторка Моли Крабапъл помага да ръководи движение на художници, оспорващи тази кражба. „Генераторите на изкуство с изкуствен интелект са обучени на огромни набори от данни, съдържащи милиони и милиони защитени с авторски права изображения, събрани без знанието на техния създател, да не говорим за компенсация или съгласие. Това всъщност е най-големият обир на изкуство в историята. Извършено от уважавано изглеждащи корпоративни субекти, подкрепени от рисков капитал от Силициевата долина. Това е грабеж посред бял ден“, се казва в отворено писмо, в което тя е съавтор.
Номерът, разбира се, е, че Силициевата долина рутинно нарича кражбата „смущение“ – и твърде често се разминава с нея. Познаваме този ход: направете пробив в нерегулирана територия; заявете, че старите правила не се прилагат за вашата нова технология; крещете, че регулацията само ще помогне на Китай – и всичко това, докато завземате пазарен дял. Докато всички осъзнаем новостта на тези нови играчки и започнем да правим равносметка на социалните, политическите и икономическите щети, технологията вече е толкова вездесъща, че съдилищата и политиците вдигат ръце.
Видяхме го със сканирането на книги и изкуство на Google. С космическата колонизация на Мъск. С нападението на Uber върху таксиметровата индустрия. С атаката на Airbnb върху пазара на наеми. С безразборното отношение на Facebook към нашите данни. Не искайте разрешение, обичат да казват разрушителите, поискайте прошка. (И подмажете исканията с щедри дарения за политически кампании.)
В The Age of Surveillance Capitalism Шошана Зубоф щателно описва как картите на Street View на Google погазват нормите за поверителност, като компанията изпраща колите си с камери, за да снима нашите обществени пътища и екстериора на домовете ни. По времето, когато започнаха съдебните дела, защитаващи правата за поверителност, Street View вече беше толкова повсеместен на нашите устройства (и толкова готин, и толкова удобен …), че малко съдилища извън Германия бяха готови да се намесят.
Сега същото, което се случи с екстериора на домовете ни, се случва с нашите думи, изображения, песни, целия ни дигитален живот. Всичко в момента се конфискува и се използва за обучение на машините да симулират мислене и креативност. Тези компании трябва да знаят, че се занимават с кражби, или поне че могат да бъдат направени сериозни аргументи, че са кражби. Те просто се надяват старите правила да проработят още веднъж – че мащабът на обира вече е толкова голям и се развива с такава скорост, че съдилищата и политиците отново ще вдигнат ръце пред предполагаемата неизбежност на всичко това.
Това е и причината техните халюцинации за всички прекрасни неща, които изкуственият интелект ще направи за човечеството, да са толкова важни. Защото тези възвишени твърдения маскират тази масова кражба като подарък – в същото време помагат за рационализирането на безспорните опасности на AI.
Досега повечето от нас са чували за проучването, което помоли изследователите и разработчиците на AI да оценят вероятността усъвършенстваните системи с AI да причинят „човешко изчезване или по подобен начин трайно и тежко обезсилване на човешкия вид“. Смразяващо, средният отговор беше, че има 10% шанс.
Как човек рационализира ходенето на работа и създаването на инструменти, които носят такива екзистенциални рискове? Често посочваната причина е, че тези системи също носят огромни потенциални предимства – само че тези предимства са в по-голямата си част въображаеми. Нека да разгледаме някои от по-дивите халюцинации.
Халюцинация №1: AI ще разреши климатичната криза
Почти неизменно начело в списъците с предимства на AI е твърдението, че тези системи по някакъв начин ще разрешат климатичната криза. Чухме това от всички - от Световния икономически форум до Съвета за международни отношения до Boston Consulting Group, който обяснява, че AI „може да се използва в подкрепа на всички заинтересовани страни при възприемането на по-информиран и базиран на данни подход за борба с въглеродните емисии и изграждането по-зелено общество. Може също така да се използва за преоценка на глобалните усилия в областта на климата към най-рисковите региони." Бившият главен изпълнителен директор на Google Ерик Шмид обобщи случая, когато каза пред The Atlantic, че рисковете на AI си заслужават да бъдат поети, защото „Ако мислите за най-големите проблеми в света, всички те са наистина трудни – изменението на климата, човешките организации и т.н. . И така, аз винаги искам хората да бъдат по-умни."
Според тази логика неуспехът да се „разрешат“ големи проблеми като изменението на климата се дължи на дефицит на интелигентност. Няма значение, че умни хора, притежаващи докторски степени и Нобелови награди, са казвали на нашите правителства от десетилетия какво трябва да се случи, за да се измъкнем от тази бъркотия: да намалим емисиите си, да оставим въглерода в земята, да се справим със свръхпотреблението на богатите и недостатъчното потребление на бедните, защото няма енергиен източник без екологични разходи.
Причината, поради която този много умен съвет беше пренебрегнат, не се дължи на проблем с разбирането при четене или защото по някакъв начин имаме нужда от машини, които да мислят вместо нас. Това е така, защото правенето на това, което климатичната криза изисква от нас, би блокирало активи от изкопаеми горива за трилиони долари, като същевременно би поставило под въпрос модела на растеж, базиран на потреблението, който е в сърцето на нашите взаимосвързани икономики. Климатичната криза всъщност не е мистерия или загадка, която все още не сме разрешили поради недостатъчно надеждни набори от данни. Знаем какво е нужно, но това не е бързо решение – това е промяна на парадигмата. Изчакването машините да изплюят по-приятен и/или печеливш отговор не е лек за тази криза, това е още един неин симптом.
Премахнете халюцинациите и изглежда много по-вероятно AI да бъде пуснат на пазара по начини, които активно задълбочават климатичната криза. Първо, гигантските сървъри, които правят възможни незабавни есета и произведения на изкуството от чатботове, са огромен и нарастващ източник на въглеродни емисии. Второ, тъй като компании като Coca-Cola започват да правят огромни инвестиции, за да използват генеративен AI, за да продават повече продукти, става твърде ясно, че тази нова технология ще се използва по същите начини като последното поколение дигитални инструменти: това, което започва с възвишени обещания за разпространение на свобода и демокрация завършват с микронасочени реклами към нас, така че да купуваме повече безполезни неща, отделящи въглерод.
Има и трети фактор, който е малко по-труден за определяне. Колкото повече медийните ни канали са наводнени с дълбоки фалшификати и клонинги от различни видове, толкова повече имаме чувството, че потъваме в информационни плаващи пясъци. Джефри Хинтън, често наричан „кръстникът на AI“, тъй като невронната мрежа, която той разработи преди повече от десетилетие, формира градивните елементи на днешните големи езикови модели, разбира това добре. Той току-що напусна висока длъжност в Google, за да може да говори свободно за рисковете на технологията, която е помогнал да създаде, включително, както той каза пред New York Times, риска хората „вече да не могат да знаят какво е истината“.
Това е много важно за твърдението, че AI ще помогне в борбата с климатичната криза. Защото, когато сме недоверчиви към всичко, което четем и виждаме в нашата все по-страшна медийна среда, ставаме още по-малко подготвени да решаваме належащи колективни проблеми. Кризата на доверието предшества ChatGPT, разбира се, но няма съмнение, че разпространението на дълбоки фалшификати ще бъде придружено от експоненциално нарастване на вече процъфтяващите конспиративни култури. Така че каква е разликата, ако AI излезе с технологични и научни пробиви? Ако тъканта на споделената реалност се разплита в нашите ръце, ние ще се окажем неспособни да отговорим с каквато и да е съгласуваност.
Халюцинация #2: AI ще осигури мъдро управление
Тази халюцинация предвещава близко бъдеще, в което политици и бюрократи, черпейки от огромния агрегиран интелект на системите с изкуствен интелект, са способни „да видят модели на нужди и да разработят базирани на доказателства програми“, които имат по-големи ползи за техните избиратели. Това твърдение идва от документ, публикуван от фондацията на Boston Consulting Group, но се повтаря в много мозъчни тръстове и управленски консултации. И е показателно, че тези конкретни компании – фирмите, наети от правителства и други корпорации, за да идентифицират спестяване на разходи, често чрез уволнение на голям брой работници – най-бързо се включиха в AI бандата. PwC (по-рано PricewaterhouseCoopers) обяви инвестиция от $1 милиард, а Bain & Company, както и Deloitte са ентусиазирани да използват тези инструменти, за да направят своите клиенти по-„ефективни“.
Както при твърденията за климата, необходимо е да се запитаме: липсата на доказателства ли е причината политиците да налагат жестоки и неефективни политики? Неспособност да „виждате модели“, както предполага документът на BCG? Не разбират ли политиците човешката цена на недофинансираното обществено здравеопазване на фона на пандемии или на неуспеха да се инвестира в непазарни жилища, когато палатките изпълват нашите градски паркове, или на одобряването на нова инфраструктура за изкопаеми горива, докато температурите се покачват? Нуждаят ли се от AI, за да ги направят „по-умни“, ако използваме термина на Шмид – или са достатъчно умни, за да знаят кой ще подпише чека за следващата им кампания или, ако се отклонят, да финансират техните съперници?
Би било много хубаво, ако изкуственият интелект наистина можеше да прекъсне връзката между корпоративните пари и безразсъдното правене на политики – но тази връзка има всичко общо с това защо на компании като Google и Microsoft е позволено да пуснат своите чатботове за обществеността въпреки лавината от предупреждения и известни рискове. Шмид и други са били в дългогодишна лобистка кампания, казвайки и на двете страни във Вашингтон, че ако не са свободни да продължат напред с генеративен AI, необременени от сериозно регулиране, тогава западните сили ще бъдат оставени да дишат прахта на Китай. Миналата година водещите технологични компании похарчиха рекордните 70 милиона долара, за да лобират във Вашингтон – повече от петролния и газовия сектор – и тази сума, отбелязва Bloomberg News, е допълнителна към милионите, похарчени „за техния широк набор от търговски групи, НПО-та и мозъчни тръстове“.
И все пак въпреки дълбоките им познания за това как точно парите оформят политиката в нашите национални столици, когато слушате Сам Алтман, главният изпълнителен директор на OpenAI – създател на ChatGPT – да говори за най-добрите сценарии за своите продукти, всичко това изглежда забравено. Вместо това изглежда, че той халюцинира свят, който е напълно различен от нашия, свят, в който политиците и индустрията вземат решения въз основа на най-добрите данни и никога не биха изложили на риск безброй животи за печалба и геополитическо предимство. Което ни води до друга халюцинация.
Халюцинация #3: Може да се разчита на технологичните гиганти, че няма да счупят света
Запитан дали се тревожи за неистовата "златна треска", която ChatGPT вече е отприщил, Алтман отговори, че е, но добави благородно: „Надяваме се, че всичко ще се оправи.“ За колегите си технологични изпълнителни директори – онези, които се състезават да пуснат на пазара конкурентните си чатботове – той каза: „Мисля, че по-добрите ангели ще спечелят.“
По-добри ангели? В Google? Почти съм сигурна, че компанията е уволнила повечето от тях, защото са публикували критични статии за AI или са призовавали компанията да отговори за расизма и сексуален тормоз на работното място. Още „по-добри ангели“ напуснаха разтревожени, най-скоро Хинтън. Това е така, защото противно на халюцинациите на хората, които печелят най-много от AI, Google не взема решения въз основа на това, което е най-добро за света – компанията взема решения въз основа на това, което е най-добро за акционерите на Alphabet, които не искат да пропуснат последния балон, а не когато Microsoft, Meta и Apple вече са завзели пазара.
Халюцинация #4: AI ще ни освободи от тежката работа
Ако добрите халюцинации на Силициевата долина изглеждат правдоподобни за мнозина, има проста причина за това. Генеративният AI в момента е във фаза, за която бихме могли да мислим като за фалшив социализъм. Това е част от вече познатите правила на Силициевата долина. Първо, създайте атрактивен продукт (търсачка, инструмент за картографиране, социална мрежа, видео платформа, споделено пътуване …); раздайте го безплатно или почти безплатно за няколко години, без забележим жизнеспособен бизнес модел („Поиграйте си с ботовете“, казват ни, „вижте какви забавни неща можете да създадете!“); правете много възвишени твърдения за това как го правите само защото искате да създадете „градски площад“ или „място за споделяне на информация“ или „да свържете хората“, като същевременно разпространявате свобода и демокрация (а не сте „зли“). След това гледайте как хората се пристрастяват с помощта на тези безплатни инструменти и вашите конкуренти обявяват фалит. След като полето е чисто, представете насочените реклами, постоянното наблюдение, договорите с полиция и военните, продажбите на данни и ескалиращите абонаментни такси.
Много животи и сектори бяха унищожени от по-ранни имплементации на тези правила, от таксиметрови шофьори до пазари за наеми до местни вестници. С революцията на изкуствения интелект тези видове загуби могат да изглеждат като грешки при закръгляването, като учители, програмисти, визуални художници, журналисти, преводачи, музиканти, болногледачи и толкова много други са изправени пред перспективата доходите им да бъдат заменени с несъвършен код.
Не се притеснявайте, халюцинират AI ентусиастите, ще бъде прекрасно. Кой изобщо обича работата? Казват ни, че генеративният AI няма да сложи край на заетостта, а само на „скучната работа“ – с чатботове, които услужливо изпълняват всички разрушаващи душата, повтарящи се задачи, а хората просто ги контролират. Алтман, от своя страна, вижда бъдеще, в което работата „може да бъде по-широко понятие, не нещо, което трябва да правите, за да можете да ядете, а нещо, което правите като творческа изява и начин да намерите удовлетворение и щастие“.
Това е една вълнуваща визия за по-красив, спокоен живот, която много левичари споделят (включително зетят на Карл Маркс, Пол Лафарг, който написа манифест, озаглавен „Правото да бъдеш мързелив“). Но ние, левичарите, също така знаем, че ако печеленето на пари вече не е наложително условие за живота, тогава трябва да има други начини да задоволим билогичните си нужди от подслон и препитание. Свят без скапани работни места означава, че наемът трябва да е безплатен, здравеопазването трябва да е безплатно и всеки човек трябва да има неотменими икономически права. И тогава изведнъж изобщо не говорим за AI – говорим за социализъм.
Но не живеем в рационалния, хуманистичен свят, вдъхновен от "Стар Трек", за който Алтман изглежда халюцинира. Живеем при капитализъм и при тази система ефектът от наводняването на пазара с технологии, които вероятно могат да изпълняват икономическите задачи на безброй работещи хора, не е, че тези хора изведнъж са свободни да станат философи и художници. Това означава, че тези хора ще се окажат втренчени в бездната на безизходицата – с истинските артисти сред първите паднали.
Това е посланието на отвореното писмо на Крабапъл, което призовава „артисти, издатели, журналисти, редактори и журналистически профсъюзни лидери да поемат обещание за човешки ценности срещу използването на генеративни AI изображения“ и „да се ангажират да подкрепят редакционното изкуство, създадено от хора, а не сървърни ферми”. В писмото, подписано сега от стотици художници, журналисти и други, се посочва, че всички творци, освен най-елитните, смятат, че работата им е „застрашена от изчезване“. И според Хинтън, „кръстникът на AI“, няма причина да вярваме, че заплахата няма да се разпространи. Чатботовете „премахват тежката работа“, но „може да отнемат повече от това“.
Крабапъл и нейните съавтори пишат: „Генеративното AI изкуство е вампирско, пируващо с минали поколения произведения на изкуството, докато изсмуква кръвта от живи художници.“ Но има начини да се съпротивляваме: можем да откажем да използваме тези продукти и да се организираме, за да изискаме нашите работодатели и правителства също да ги отхвърлят. Писмо от видни учени по етиката на изкуствения интелект, включително Тимнит Гебру, която беше уволнена от Google през 2020 г. за оспорване на дискриминацията на работното място, излага някои от регулаторните инструменти, които правителствата могат да въведат незабавно – включително пълна прозрачност за това какви набори от данни се използват за обучение на модели. Авторите пишат: „Не само трябва винаги да е ясно, когато се сблъскваме със синтетични медии, но организациите, изграждащи тези системи, трябва също да бъдат задължени да документират и разкриват данните за обучение и моделните архитектури.... Трябва да изграждаме машини, които работят за нас, вместо да „приспособяваме“ обществото към машинно четене и писане.“
Въпреки че технологичните компании биха искали да вярваме, че вече е твърде късно да върнем назад този заместващ човека продукт с масова мимикрия, съществуват изключително подходящи законови и регулаторни прецеденти, които могат да бъдат наложени. Например Федералната търговска комисия на САЩ (FTC) принуди Cambridge Analytica, както и Everalbum, собственик на приложение за снимки, да унищожат цели алгоритми, за които е установено, че са били обучени върху незаконно присвоени данни и изтрити снимки. В ранните си дни администрацията на Байдън направи много смели твърдения за регулиране на големите технологии, включително преследване на кражбата на лични данни за изграждане на патентовани алгоритми. Тъй като президентските избори в САЩ бързо наближават, сега би бил добър момент да изпълним тези обещания – и да предотвратим следващия набор от масови съкращения, преди да се случат.
Свят на дълбоки фалшификати, мимикрия и влошаващо се неравенство не е неизбежност. Това е набор от избори на политики. Можем да регулираме съществуването на настоящата форма на вампирски чатботове – и да започнем да изграждаме света, в който най-вълнуващите обещания на AI биха били повече от халюцинации от Силициевата долина.
Защото ние обучихме машините. Всички ние. Но ние така и не дадохме съгласието си. Те се хранеха с колективната изобретателност, вдъхновение и откровения на човечеството (заедно с нашите по-продажни черти). Тези модели са машини за заграждане и присвояване, поглъщащи и приватизиращи нашия индивидуален живот, както и нашето колективно интелектуално и артистично наследство. И тяхната цел никога не е била да решат проблема с изменението на климата или да направят нашите правителства по-отговорни или ежедневието ни по-спокойно. Въпросът винаги е бил да се печели от масово обедняване, което при капитализма е очевидното и логично следствие от замяната на човешки функции с ботове.
Прекалено драматично ли е всичко това? Задушна и рефлексивна съпротива срещу вълнуващите иновации? Защо да очакваме по-лошото? Алтман ни успокоява: „Никой не иска да унищожи света.“ Може би не. Но както непрекъснато влошаващият се климат и кризата с изчезването на животински видове ни показват всеки ден, много могъщи хора и институции изглежда си продължават живота, знаейки, че помагат да се разруши стабилността на световните животоподдържащи системи, стига да могат да продължат да правят рекордни печалби, които според тях ще защитят тях и семействата им от най-лошите последици. Алтман, подобно на много същества от Силициевата долина, самият той се подготвя: през 2016 г. той се похвали: „Имам оръжия, злато, калиев йодид, антибиотици, батерии, вода, противогази от израелските отбранителни сили и голямо парче земя в Биг Сур, до което мога да летя."
Почти съм сигурен, че тези факти казват много повече за това, което Алтман всъщност вярва за бъдещето, което помага да се отприщи, отколкото каквито и цветисти халюцинации, които избира да сподели в интервюта за пресата.
Наоми Клайн е колумнист и автор на The Guardian в САЩ. Тя е автор на бестселъри като No Logo и The Shock Doctrine и професор по климатична справедливост и съдиректор на Центъра за климатична справедливост в Университета на Британска Колумбия.