Ако искате да управлявате изкуствения интелект, първо имате нужда от международна дискусия. Каква роля играят възможностите и рисковете от изкуствения интелект, такъв, какъвто е в момента? Сещате се – кой ще има най-голяма полза от това? Кой няма да има полза? Къде смятаме, че има предизвикателства? Къде има удивителни възможности?
Първото нещо, което искате да направите с международния контрол, е да създадете общ международен диалог за това, защото не можете да оправите нищо, ако всички гребат в различни посоки. Трябва да водите един и същи разговор.
Освен това, има три основни аспекта на международния контрол, от които имаме нужда и те са много различни. В момента нямаме нито един от тях. Не е изненадващо, едва сега започваме.
На първо място, доколкото хора като Ерик Шмид са прави, има само две страни в света, които ще са от значение за изкуствения интелект през следващите 10 години – това са САЩ и Китай. Трябва да бъдат подписани серия от споразумения, контролиращи оръжията с изкуствен интелект между Китай и САЩ, преди нещата да станат опасни. Преди да започнем да се притесняваме, че това се използва за целите на националната сигурност.
Чакахме да подпишем първото споразумение за контрол на оръжията с СССР чак след 1962, след Кубинската криза – когато стана очевидно, че имаме нужда от тях. Би било добре да започнем с тези дискусии с Китай преди да имаме нова Кубинска криза, свързана с изкуствения интелект. Това е първото нещо, от което имаме нужда и то трябва да се случи в рамките на управлението на следващата администрация.
Способен ли е Тръмп да го направи? Със сигурност хората около него ще могат. Ще видим. Смятам, че китайците са склонни да проведат подобна дискусия ако им бъде предложена смислена оферта.
Второ – ами ако грешим за това? Ако бъдещето на изкуствения интелект не е свързано само с малък брой ориентирани към страната военни, индустриални и технологични компании? Ами ако всички имат достъп до него? Не само кодът е достъпен за всички, но и всички разработват тези изключително мощни инструменти, които могат да доведат до структурни нарушения?
С други думи, ами ако това не е като надпреварата за ядрено въоръжаване, а изкуственият интелект прилича повече на пазар? В такъв случай, ще имаме нужда от нещо подобно на Съвета за финансова стабилност.
Ще имаме нужда от Съвет за стабилност на изкуствения интелект, за да може да помогне на публичния и частния сектор да определят кои са зараждащите се структурни заплахи за работата на изкуствения интелект във всеки сектор. Като за пазарите, биосигурността или за неща като някое заблудено оръжие.
Каквото и да е, трябва да можем да го идентифицираме, да го обясним и да можем да реагираме на заплахата. Това е много различен вид контрол. Имаме нужда и от двата вида, поне в зародиш, защото все още не знаем накъде сме тръгнали.