Колкото и смъртоносна да беше пандемията от коронавирус, следващата може да е още по-кошмарна. Мощни нови модели на изкуствен интелект, съчетани с лабораторни инструменти, биха могли скоро да позволят на недобросъвестни учени или държави да създават патогени, които да се разпространяват по-бързо, да устояват по-добре на ваксините и да убиват повече хора, отколкото Covid-19. Правителствата, технологичните компании и изследователите трябва да действат, за да намалят риска още сега.
Природата винаги е имала способностите да създава опасни патогени – от чумата до испанския грип. В продължение на десетилетия го правят и хората. През Втората световна война японците провеждат брутални експерименти с биологични оръжия, а по време на Студената война и САЩ, и Съветският съюз складират токсични вещества. Програмата на Съветския съюз продължава дори и след подписването на Конвенцията за биологичните оръжия през 1972 г. Пентагонът смята, че Русия и Северна Корея все още разработват биологични оръжия.
Подобни усилия обикновено се свеждат до броя на учените, обучени да провеждат необходимите изследвания, и до наличните инструменти за производство и разпространение на ефективни оръжия. Технологиите преодоляват и двете бариери. Големите езикови модели (LLM), като ChatGPT на OpenAI Inc., могат бързо да синтезират огромни количества информация и познания. В един експеримент чатбот съветва група студенти от Масачузетския технологичен институт (MIT) как да създадат четири потенциално смъртоносни патогена и откъде да се снабдят с необходимата ДНК, без да бъдат открити – всичко това в рамките на един час.
По-специфични програми с изкуствен интелект, обучени на биологични данни, известни като инструменти за биологичен дизайн, са още по-мощни. С течение на времето подобни програми могат да ускорят разработването на изцяло нови видове патогени със смъртоносни свойства, а може би дори и със способността да се насочват към определени групи от населението. Нововъзникващи технологии – от „настолни“ лаборатории за синтез, които ще позволят на отделните изследователи да създават свои собствени нишки ДНК, до т.нар. облачни лаборатории, в които експерименти могат да се провеждат от разстояние с помощта на роботи и автоматизирани инструменти – ще намалят останалите пречки пред тестването и производството на потенциални оръжия.
Струва си да отбележим, че бариерите пред производството и разпространението на работещо оръжие остават много високи. Според учените обаче това би могло да се промени до няколко години, предвид бързото развитие на всички тези технологии. Времето за действие е сега, преди те да са достигнали пълната си степен на развитие. Поредица от мерки би помогнала.
Да започнем с моделите за изкуствен интелект. Някои американски разработчици на едни от най-мощните големи езикови модели доброволно ги предоставят на правителството за по-нататъшна експертиза. Това е добре дошло, но може би трябва да се обърне по-голямо внимание на най-рисковите модели – тези, разработени на базата на чувствителни биологични данни. Конгресът трябва да работи с разработчици и учени в областта на изкуствения интелект, за да разработи критерии за това кои модели изискват официален контрол и какви предпазни мерки могат да се включат в моделите, за които е установено, че представляват най-голям риск. Въпреки че засега законодателите трябва да се съсредотчат в ограничена област, с напредването на технологията е възможно да се наложи по-строг надзор.
Следващата задача е да се предотврати появата на всякакви вируси, създадени от изкуствен интелект, в действителността. От доставчиците на синтетични нуклеинови киселини трябва да се изисква да познават клиентите си и да проверяват поръчките си за подозрителни ДНК секвенции. Всички заявки следва да се регистрират, за да може да се проследят новите патогени, ако бъдат пуснати в природата. Контролът трябва да бъде включен и в настолните лаборатории за синтез, а облачните лаборатории трябва да следят клиентите и заявките. Рисковите експерименти винаги трябва да се провеждат в присъствието на човек.
САЩ трябва да окаже натиск на останалите държави да наложат подобни защитни механизми, за да не могат недоброжелателите просто да търсят по-недобросъвестни доставчици другаде. Ако Конвенцията за биологичните оръжия не може да бъде направена по-строга поради дипломатически противоречия, страните със сходни възгледи трябва поне да се споразумеят за най-ефективните методи на действие, както вече направиха в областта на изкуствения интелект.
Преди всичко държавите трябва да засилят защитата си срещу пандемии, така че всеки, който успее да се възползва от пропуски в системата, да не може да причини големи щети. Самият изкуствен интелект би могъл да повиши способността на правителствата да откриват появата на нови патогени, да не говорим за ускоряване на разработването на ваксини и производството и разпространението на лични предпазни средства. По-устойчивите системи за обществено здраве са от решаващо значение, независимо дали новите вируси са създадени от терористи, недобросъвестни държави, инциденти или от природата.
Covid разкри огромни пропуски в тези защити, които все още не са отстранени. Правителствата разполагат с всички основания да се противопоставят на тази нова заплаха, докато все още има време.