Най-високопоставеният служител на Министерството на отбраната, отговарящ за изкуствения интелект, заяви, че агенцията трябва да знае повече за инструментите на изкуствения интелект, преди да се ангажира напълно с използването на технологията, и призова разработчиците да бъдат по-открити.
Крейг Мартел, главният служител на Пентагона по въпросите на цифровите технологии и изкуствения интелект, иска компаниите да споделят информация за това как е създаден техният софтуер за изкуствен интелект - без да губят интелектуалната си собственост - за да може министерството "да се чувства удобно и безопасно" при приемането му.
Софтуерът за изкуствен интелект разчита на големи езикови модели, или LLM, които използват огромни масиви от данни, за да захранват инструменти като чатботове и генератори на изображения. Услугите обикновено се предлагат, без да се показва вътрешната им работа - в т.нар. черна кутия. Това затруднява потребителите да разберат как технологията стига до решенията или какво я кара да се справя по-добре или по-зле с работата си с течение на времето.
"Получаваме само крайния резултат от изграждането на модела - това не е достатъчно", каза Мартел в интервю. Пентагонът няма представа как са структурирани моделите или какви данни са използвани, каза той.
Компаниите също така не обясняват какви опасности могат да представляват техните системи, каза Мартел.
"Те казват: "Ето го. Не ви казваме как сме го създали. Не ви казваме в какво е добър или лош. Не ви казваме дали е предубеден или не", каза той.
Той описа подобни модели като еквивалент на "намерена извънземна технология" за Министерството на отбраната. Той е загрижен и за това, че само няколко групи хора разполагат с достатъчно пари, за да изградят LLM. Мартел не посочи поименно нито една компания, но Microsoft Corp., Google на Alphabet Inc. и Amazon.com Inc. са сред тези, които разработват LLM за търговския пазар, заедно със стартиращите OpenAI и Anthropic.
Мартел кани представители на индустрията и на академичните среди във Вашингтон през февруари, за да разгледат тези проблеми. Симпозиумът на Пентагона за отбранителните данни и изкуствения интелект има за цел да разбере за какви дейности могат да бъдат подходящи LLM, каза той.
Екипът на Мартел, който вече ръководи работна група за оценка на LLMs, вече е открил 200 потенциални приложения за тях в рамките на Министерството на отбраната, каза той.
"Ние не искаме да спираме големите езикови модели", каза той. "Искаме само да разберем употребата, ползите, опасностите и как да ги ограничим."
В рамките на министерството има "голям наплив" от хора, които биха искали да използват LLM, каза Мартел. Но те също така осъзнават, че ако технологията "халюцинира" - терминът за случаите, когато софтуерът с изкуствен интелект изфабрикува информация или дава неверен резултат, което не е рядкост - те са тези, които трябва да поемат отговорност за това.
Той се надява, че февруарският симпозиум ще помогне за изграждането на така наречения от него "модел на зрялост", за да се установят критерии, свързани с халюцинациите, пристрастията и опасностите. Макар че може да е приемливо в първата чернова на доклада да се включат грешки, свързани с изкуствения интелект - нещо, което по-късно човек може да отстрани, - тези грешки не биха били приемливи в по-рискови ситуации, като например информация, която е необходима за вземане на оперативни решения.
Класифицирана сесия на тридневното събитие през февруари ще се фокусира върху това как да се тестват и оценяват моделите и да се защитават от хакерски атаки.
Мартел заяви, че службата му играе консултантска роля в рамките на Министерството на отбраната, като помага на различни групи да открият правилния начин за измерване на успеха или неуспеха на техните системи. Агенцията е в процес на изпълнение на повече от 800 проекта в областта на изкуствения интелект, като някои от тях са свързани с оръжейни системи.
Като се има предвид залогът, Пентагонът ще прилага по-високи изисквания за начина, по който използва алгоритмични модели, отколкото частният сектор го прави, каза той.
"Ще има много случаи на използване, при които животът на хората е поставен на карта", каза той. "Така че допускането на "халюцинации" или както и да го наречем - просто няма да е приемливо."