Мениджърите на ESG фондове, които се насочиха към големите технологии като залог за ниска въглеродна интензивност и висока възвръщаемост, са все по-притеснени от експериментите на сектора с изкуствения интелект (ИИ).
Експозицията към изкуствения интелект сега представлява "краткосрочен риск за инвеститорите", казва Марсел Стотцел, базиран в Лондон портфолио мениджър във Fidelity International.
Стотцел каза, че се "притеснява, че ще получим обратен удар от ИИ", което той описва като ситуация, в която нещо неочаквано предизвиква значителен спад на пазара. "Нужен е само един инцидент, за да се обърка нещо, и материалното въздействие може да бъде значително", каза той.
Примери, които според Стотцел предизвикват безпокойство, са изтребителите със самообучаващи се системи с изкуствен интелект. Fidelity е сред мениджърите на фондове, които разговарят с компаниите, разработващи такива технологии, за да обсъдят функции за безопасност като "изключвател", който може да бъде активиран, ако един ден светът се събуди и "системите с изкуствен интелект започнат да действат по неконтролируем начин", казва той.
Индустрията на ESG инвестициите може да е по-изложена на такива рискове от повечето, след като се насочи към технологиите по голям начин. Според Bloomberg Intelligence фондовете, регистрирани като имащи ясна цел за опазване на околната среда, социалната сфера и доброто управление, притежават повече технологични активи от всеки друг сектор. В най-големия борсово търгуван фонд ESG в света преобладават технологиите, начело с Apple Inc, Microsoft Corp, Amazon.com Inc и Nvidia Corp.
Тези компании сега са в челните редици на разработването на ИИ. Напоследък напрежението относно посоката, в която трябва да се развива индустрията, и скоростта, с която трябва да се развива, избухна в публичното пространство. Този месец OpenAI, компанията, която разтърси света преди година с пускането на ChatGPT, уволни и след това бързо възстанови своя главен изпълнителен директор Сам Алтман, с което предизвика бясна вълна от спекулации.
Вътрешните разногласия се разразиха по въпроса колко амбициозна трябва да бъде OpenAI с оглед на потенциалните рискове за обществото. Възстановяването на Алтман поставя компанията на пътя към осъществяване на неговите планове за растеж, включително по-бързо комерсиализиране на изкуствения интелект.
Apple заяви, че планира да действа предпазливо в областта на изкуствения интелект, а през май главният изпълнителен директор Тим Кук заяви, че има "редица проблеми, които трябва да бъдат решени" с технологията. А компаниите, включително Microsoft, Amazon, Alphabet Inc. и Meta Platforms Inc., се съгласиха да въведат доброволни предпазни мерки, за да сведат до минимум злоупотребите и пристрастията в ИИ.
Стотцел заяви, че не се притеснява толкова от рисковете, произтичащи от малки стартъпи с изкуствен интелект, колкото от тези, които се крият в световните технологични гиганти. "Най-големите компании могат да нанесат най-големи щети", каза той.
Други инвеститори споделят тези опасения. Пенсионната система на служителите в Ню Йорк, един от най-големите публични пенсионни планове в САЩ, заяви, че "активно следи" как компаниите от портфейла използват изкуствен интелект, според говорителка на плана, който е на стойност 248 милиарда долара. Generation Investment Management, фирмата, съоснована от бившия вицепрезидент на САЩ Ал Гор, съобщи на клиентите си, че засилва проучванията в областта на генеративния ИИ и ежедневно разговаря с компаниите, в които е инвестирала, за рисковете, както и за възможностите, които технологията представлява.
А норвежкият суверенен фонд на стойност 1,4 трилиона долара каза на управителните съвети и компаниите да се заемат сериозно с "тежките и неизследвани" рискове, породени от ИИ.
Когато ChatGPT на OpenAI беше пуснато през ноември миналата година, то бързо се превърна в най-бързо развиващото се интернет приложение в историята, достигайки 13 милиона потребители дневно до януари, според оценки на анализатори от UBS Group AG. На този фон цените на акциите на технологичните гиганти, които разработват или подкрепят подобни технологии, се повишиха тази година.
Според Кристал Генг, анализатор на ESG в BNP Paribas Asset Management в Хонконг, обаче липсата на регулации или каквито и да било значими исторически данни за това как активите с изкуствен интелект могат да се представят с течение на времето е причина за безпокойство.
"Не разполагаме с инструменти или методология за количествено определяне на риска", казва тя. Един от начините, по които BNP се опитва да оцени потенциалните социални последици от изкуствения интелект, е да попита компаниите от портфолиото си колко работни места могат да бъдат съкратени поради появата на технологии като ChatGPT. "Не съм видяла нито една компания, която да ми даде полезен брой", каза Генг.
Джонас Крон, главен застъпник в базираната в Бостън компания Trillium Asset Management, която помогна на Apple и Facebook на Meta да включат поверителността в уставите на своите управителни съвети, настоява технологичните компании да обяснят по-добре работата си с изкуствен интелект. По-рано тази година Trillium подаде резолюция на акционерите до Alphabet, компанията майка на Google, с искане да предостави повече подробности за своите алгоритми за изкуствен интелект.
Крон заяви, че ИИ представлява управленски риск за инвеститорите, и отбеляза, че дори вътрешни лица, включително Алтман от OpenAI, са призовали законодателите да наложат регулации.
Притесненията са, че ако не бъде ограничаван, ИИ може да засили дискриминацията в области като здравеопазването. Освен потенциала на ИИ да засилва расовите и половите предразсъдъци, съществуват и опасения относно склонността му да позволява злоупотреба с лични данни.
В същото време броят на инцидентите и противоречията, свързани с изкуствения интелект, се е увеличил 26 пъти от 2012 г. насам според база данни, която проследява злоупотребите с тази технология.
Инвеститорите в Microsoft, Apple и Google на Alphabet са подали резолюции с искане за по-голяма прозрачност на алгоритмите за изкуствен интелект. Фондът AFL-CIO Equity Index Fund, който контролира 12 млрд. долара в профсъюзни пенсии, поиска от компании, включително Netflix Inc. и Walt Disney Co. да докладват дали са приели насоки за защита на работниците, клиентите и обществеността от вредите, причинени от ИИ.
Тревожните въпроси включват дискриминация или предубеждение към служителите, дезинформация по време на политически избори и масови съкращения в резултат на автоматизацията, казва Карин Зеленко, директор на капиталовите стратегии в AFL-CIO във Вашингтон. Тя добави, че притесненията за ИИ на актьорите и сценаристите в Холивуд са изиграли роля в техните високопрофилни стачки тази година.
"Това само повиши осведомеността за това колко значим е този въпрос за всеки бизнес", каза тя.
Какво казва Bloomberg Intelligence
"ЕС може да регулира изкуствения интелект, който е свързан с всякакви приложения - от системите за препоръчване на социални медии до инструментите за управление на заетостта, като например софтуер за сортиране на автобиографии, както и с оценяването на кредити и изпити - като ги определи като "високорискови". Такива системи ще се нуждаят от оценка на съответствието и ще трябва да бъдат регистрирани преди пускането им на пазара на ЕС."