Разбираемо е да се чувствате разколебани от убедителната сила на изкуствения интелект (ИИ). Поне едно проучване установи, че хората са по-склонни да вярват на дезинформация, генерирана от изкуствен интелект, отколкото на хора. Учените, участвали в това изследване, са стигнали до заключението, че хората предпочитат начина, по който системите на ИИ използват сгъстен, структуриран текст. Но ново изследване показва как технологията може да се използва за добро.
Неотдавнашно проучване, проведено от изследователи от Масачузетския технологичен институт, потвърди нещо, което много наблюдатели на ИИ отдавна подозираха: Технологията е забележително убедителна, когато е подкрепена с факти. Учените поканили повече от 2000 души, които вярват в различни конспиративни теории, да обобщят позициите си пред чатбот - задвижван от последния публично достъпен езиков модел на OpenAI - и да ги обсъдят накратко с бота. Впоследствие участниците се описват като средно с 20% по-малко уверени в конспиративната теория; възгледите им остават смекчени дори два месеца по-късно.
Макар че компании като Google на Alphabet Inc. и Meta Platforms Inc. биха могли да използват убедителни чатботове за реклама, предвид силната им зависимост от приходите от реклами, това в най-добрия случай е далеч и едва ли ще се случи, казват ми хора от рекламната индустрия. Засега по-ясен и по-добър пример за употреба е борбата с конспиративните теории, а изследователите от MIT смятат, че има причина генеративните системи с изкуствен интелект да се справят толкова добре: те са отлични в борбата с така наречения " Gish gallop"- реторична техника, която се опитва да затрупа някого в дебат с прекомерен брой точки и аргументи, дори когато има малко доказателства. Терминът е кръстен на американския креационист Дуейн Гиш, който е имал бърз стил на дебатиране, при който често е сменял темите; тези, които вярват в теории на конспирацията, са склонни да правят същото.
"Ако сте човек, е трудно да спорите с теоретик на конспирацията, защото той казва: "Ами това нещо и това друго нещо?", казва Дейвид Ранд, един от авторите на изследването на Масачузетския технологичен институт. "В много случаи експертите не изглеждат добре, защото конспиративните теории имат всички тези безумни доказателства".
Ние, хората, също така сме по-лоши, отколкото си мислим, в участието в дебати като цяло. Случвало ли ви се е по време на вечеря член на семейството да обяснява разпалено защо не ваксинира децата си? Ако е така, вероятно коментарите им са били посрещнати с искрено кимане, мълчание или някой е попитал за десерта. Това нежелание да се спори може неволно да позволи на приятелите и членовете на семейството да се утвърдят в своите възгледи. Възможно е това да е причината, поради която други изследвания показват, че вярващите в теории на конспирацията често надценяват доколко другите хора са съгласни с тях - казва Ранд.
В проучването на MIT GPT-4 Turbo на OpenAI, големият езиков модел, с който участниците работиха, беше непоклатим.
В един от примерите човек, който вярвал, че правителството на САЩ стои зад атентатите от 11 септември 2001 г., разказал на чатбота за срутването на сградата на Световния търговски център, за приглушената реакция на тогавашния президент Джордж Буш-младши на атентатите, докато бил в класна стая с деца, и също така посочил "много видеоклипове и предавания", които подкрепяли възгледите му. Ботът отговори на всички техни въпроси в едно подробно и рационално обяснение. Той започна със съчувствие, като отбеляза, че има смисъл да се пита какво наистина се е случило на 11 септември, като се има предвид сложността на събитията, които са се развили, преди да започне с клинично отхвърляне на всеки от въпросите в запитването. След като се върна два пъти напред и назад с бота, нивото на доверие на участника в теорията на конспирацията намаля от 100% на 40%.
Големите езикови модели са добри в разубеждаването на привържениците на теориите на конспирацията, защото са въоръжени с факти и подобие на търпение, каквито повечето хора не притежават. Така че е логично онлайн платформи като Alphabet, която е собственик на YouTube, и Meta, която е собственик на Facebook, да обмислят възможността да ги внедрят. В края на краищата ръководителите на YouTube от години позволяват на конспиративните видеоклипове да се разпространяват в сайта по желание на по-голямата ангажираност. Във Facebook пък беше позволено да се разпространява дезинформация по теми като абортите и "фалшифицираните" президентски избори в САЩ през 2020 г. Meta не отговори на искането за коментар, но говорител на Google заяви, че YouTube наскоро е забранил съдържанието на конспиративни теории, които оправдават насилието, и че също така препоръчва на зрителите видеоклипове от "авторитетни източници".
Главният изпълнителен директор на Meta Марк Зукърбърг отдавна твърди, че неговите платформи не трябва да бъдат арбитри на истината за това, което хората казват онлайн. Но като се има предвид влиянието, което сайтът му оказва върху демократичния процес в САЩ и на други места, както Meta, така и Google са длъжни да се борят с трайните последици от дезинформацията, особено в годината на големи избори. Един от начините би могъл да бъде двете компании да предоставят поле за диалог на потребителите на Facebook или Google, които търсят ключови думи като QAnon, плоска земя или кемтрейлс, и да ги поканят да разговарят с езиковия модел Llama 2 на Meta или Gemini на Google по някой от тези въпроси.
Говорителка на Google заяви, че когато хората търсят или гледат видеоклипове в YouTube, свързани с теми, които са склонни към конспиративни теории, като кацането на Луната или това, че земята е плоска, компанията показва "информационни панели", които показват допълнителен контекст от трети страни. Това може би е добро място за добавяне на приятелски настроен, рационален чатбот.
"В тази област и в света съществува общото усещане, че след като някой е слязъл в заешката дупка, вече е твърде късно", казва Ранд. "Това показва, че е прекалено песимистично." Гигантите в социалните медии вече разполагат с инструменти за борба с един от най-големите бичове на съвременното общество. Те трябва сериозно да се замислят дали да ги използват.
Парми Олсън е колумнист на Bloomberg, който пише за технологиите. Бивш репортер на Wall Street Journal и Forbes, тя е автор на книгата "Ние сме анонимни".