Развитието на изкуствения интелект се движи толкова бързо, че дори учените трудно го следват. През изминалата година алгоритмите за машинно обучение започнаха да създават елементарни филми и впечатляващи фалшиви снимки. Те дори пишат кодове. 2022 вероятно ще остане в историята като годината, в която изкуственият интелект премина от обработка на информация към създаване на съдържание – подобно на хората, пише Bloomberg.
Но какво ще стане, ако това се окаже годината, в която изкуственият интелект направи крачка към унищожаването на човешкия вид? Колкото и хиперболично и нелепо да звучи това, публични фигури като Бил Гейтс, Илон Мъск и Стивън Хокинг - дори Алън Тюринг, са изразявали загриженост за съдбата на хората в свят, в който машините ги превъзхождат по интелект. Според Мъск изкуственият интелект става по-опасен от ядрено оръжие.
Хората не се отнасят особено добре към по-малко интелигентните видове, така че кой би могъл да каже, че компютрите, обучени повсеместно на данните, които отразяват всички аспекти на човешкото поведение, няма да „поставят целите си пред нашите“, както легендарният компютърен учен Марвин Мински предупреди.
Ободряващо – има някои добри новини. Все повече учени се стремят да направят системите по-прозрачни. Тази инерция не трябва да спира. Тъй като тези програми стават все по-влиятелни на финансовите пазари, в социалните медии и по веригите за доставка, технологичните компании ще трябва да започнат да дават приоритет на безопасността на изкуствения интелект пред възможностите.
Миналата година в големите развойни центрове за изкуствен интелект в света приблизително 100 изследователи на пълен работен ден са били фокусирани върху изграждането на безопасни системи, показва докладът за състоянието на изкуствения интелект за 2021 г., изготвян ежегодно от инвеститорите на рисков капитал в Лондон Иън Хогарт и Нейтън Банайч. Техният доклад за тази година установява, че все още има само около 300 изследователи, работещи на пълен работен ден върху безопасността на изкуствения интелект.
Тази година – няколко месеца, след като OpenAI впечатли общността с революционна система за генериране на изображения, наречена DALL-E 2, фирмата Stable Diffusion пусна своя собствена версия на инструмента за обществеността – безплатно.
Едно от предимствата на софтуера с отворен код е, че по-голям брой хора непрекъснато могат да го изследват за неефективност. Ето защо Linux исторически е една от най-сигурните операционни системи, достъпни за обществеността.
Оставянето на отворени кодове на мощни системи за изкуствен интелект обаче също повишава риска с тях да бъде злоупотребено. Ако изкуственият интелект е потенциално толкова вреден, колкото вирус или ядрено оръжие, тогава може би имало смисъл да се централизира неговото развитие. В края на краищата вирусите се изследват внимателно в лаборатории за биобезопасност, а уранът се обогатява в ограничена среда. Изследванията в областта на вирусите и ядрената енергия обаче се контролират от регулации, а тъй като правителствата изостават от бързия темп на развитие на изкуствения интелект, все още няма ясни насоки за него.
„Почти имаме най-лошото от двата свята“, посочва Хогарт. Налице е риск от злоупотреби, ако развитието на изкуствения интелект се случва чрез отворени кодове, но никой не наблюдава какво се случва, когато той се създава зад затворени врати.
Поне засега е окуражаващо да се види как светлината на прожекторите започва да се концентрира върху изследванията за привеждане в съответствие с изкуствения интелект – развиваща се област, която се отнася до проектиране на системи, които са „подравнени“ с човешките цели. Водещи компании за изкуствен интелект като DeepMind и OpenAI на Alphabet разполагат с множество екипи, които работят върху това и много експерти от тези фирми започнаха да обособяват свои собствени стартъпи, някои от които са фокусирани върху осигуряването на безопасност при използване на изкуствения интелект. Сред тях изпъкват базираната в Сан Франциско Anthropic, чийто основен екип напусна OpenAI и набра 580 млн. долара чрез инвеститори по-рано тази година; и базираната в Лондон Conjecture, която наскоро беше подкрепена от основателите на Github, Stripe и FTX Trading.
Всичко това се случва на фона на очакванията, че изкуственият интелект да достигне човешкия през следващите пет години, като настоящата траектория означава катастрофа за човешката раса.
Главният изпълнителен директор на Conjecture Конър Лийхи посочва следното в отговор на въпроса защо изкуственият интелект би пожелал да навреди на хората на първо място: „Представете си, че хората искат да наводнят долина, за да построят водноелектрически язовир, а в долината има мравуняк“, казва той. „Това няма да спре хората от изграждането на язовир и мравунякът веднага ще бъде наводнен. В нито един момент хората дори не са си помисляли, че ще наранят мравките. Те просто искат повече енергия и това е най-ефективният начин за постигане на тази цел. Аналогично, автономните изкуствени интелекти ще се нуждаят от повече енергия, по-бърза комуникация и повече интелигентност, за да постигнат целите си“, обяснява той.
Според Лийхи, за да се предотврати този апокалиптичен сценарий, светът се нуждае от „портфолио от залози“, включително от внимателно изследване на алгоритмите за задълбочено обучение и по-добро разбиране за това как изкуственият интелект взема решения.
Дори страховете на Лийхи да изглеждат преувеличени, ясно е, че все още не съществува изкуствен интелет, който да е изцяло съобразен с човешките интереси. Пример за това са някои от последните опити за изграждане на чатботове. Microsoft изостави своя бот Tay от 2016 г., който се учи от взаимодействието с потребители на Twitter, след като публикува серия от расистки и полови дискриминационни съобщения в рамките на часове след активирането му. През август тази година Meta пусна чатбот, който обяви, че Доналд Тръмп все още е президент на САЩ.
Никой не знае дали изкуственият интелект няма да предизвика хаос на финансовите пазари или да разруши веригата на доставки при храните в рамките на ден. Но е ясно, че той може да противопостави хората един срещу друг в социалните платформи. Мощните системи, препоръчващи публикации на хората в Twitter и Facebook, са насочени към стимулиране на потребителската ангажираност, което неизбежно означава предоставяне на съдържание, което провокира възмущение или дезинформация. Промяната на тези стимули би била добро начало.