Изкуственият интелект може и да не се интересува от това дали хората живеят или умират, но инструменти като ChatGPT все пак ще повлияят на решенията "на живот и смърт" - след като станат стандартен инструмент в ръцете на лекарите. Някои от тях вече експериментират с ChatGPT, за да проверят дали той може да диагностицира пациенти и да избира лечения. Дали това ще е добре или зле, зависи от начина, по който лекарите го използват.
GPT-4, най-новата актуализация на ChatGPT, може да получи отлична оценка на изпитите за медицинска правоспособност. Когато сгреши нещо, често има основателен медицински спор за отговора. Той дори е добър в задачи, за които смятахме, че изискват човешко състрадание, като например намирането на правилните думи за съобщаване на лоши новини на пациентите.
Тези системи развиват и капацитет за обработка на изображения. На този етап все още се нуждаете от истински лекар, за да опипате бучка или да прецените скъсана връзка, но изкуственият интелект би могъл да прочете ядрено-магнитен резонанс или компютърна томография и да предложи медицинска преценка. В идеалния случай AI няма да замени практическата медицинска работа, а ще я подобри - но все още не сме на път да разберем кога и къде би било практично или етично да следваме неговите препоръки.
И е неизбежно хората да го използват, за да ръководят собствените си решения в областта на здравеопазването, точно както от години се доверяваме на "д-р Гугъл". Въпреки че разполагаме с повече информация, тази седмица експерти по обществено здраве обвиниха изобилието от дезинформация за сравнително кратката продължителност на живота ни - нещо, което може да се подобри или влоши с GPT-4.
Андрю Бийм, професор по биомедицинска информатика в Харвард, е изумен от постиженията на GPT-4, но сподели, че може да го накара да му дава много различни отговори, като леко променя начина, по който формулира подканите си. Например, не е задължително компютърът да се справи с медицинските изпити, освен ако не му кажете да се справи с тях, например като му наредите да се държи така, сякаш е най-умният човек на света.
Той каза, че всичко, което всъщност прави, е да предсказва какви думи трябва да последват - система за автоматично попълване. И все пак това много прилича на мислене.
"Невероятното нещо, което мисля, че малцина са предвидили, е, че много задачи, за които смятаме, че изискват обща интелигентност, са прикрити задачи за автоматично попълване", каза той. Това включва някои форми на медицинско мислене.
Предполага се, че целият клас технологии - големите езикови модели - се занимават изключително с езика, но потребителите са открили, че обучението им на повече езикови умения им помага да решават все по-сложни математически уравнения. "Не разбираме добре този феномен", казва Бийм. "Мисля, че най-добрият начин да мислим за него е, че решаването на системи линейни уравнения е специален случай на способността да се разсъждава за голямо количество текстови данни в някакъв смисъл."
Айзък Кохане, лекар и председател на програмата по биомедицинска информатика в Харвардското медицинско училище, е имал възможност да започне да експериментира с GPT-4 миналата есен. Той толкова се впечатлил, че побързал да превърне това в книга - "Революцията на изкуствения интелект в медицината": В съавторство с Питър Лий от Microsoft и бившия журналист от Bloomberg Кери Голдбърг. Той обясни, че една от най-очевидните ползи от изкуствения интелект ще бъде намаляването или премахването на часовете работа с документи, които сега пречат на лекарите да прекарват достатъчно време с пациентите - нещо, което често води до прегаряне.
Но той също така е използвал системата, за да му помага да поставя диагнози като детски ендокринолог. В един от случаите, разказва той, бебето се родило с двусмислени гениталии и GPT-4 препоръчала хормонален тест, последван от генетичен тест, който посочил причината като дефицит на 11 хидроксилаза. "Диагностицирането не се извършва само с еднократно предоставяне на случая, а с искане за правилни изследвания на всяка стъпка", казва той.
За него стойността е била в това, че е предложил второ мнение, а не го е заменил, но работата му повдига въпроса дали получаването само на мнението на AI все още е по-добро от нищо за пациенти, които нямат достъп до най-добрите човешки експерти.
Подобно на човешкия лекар, GPT-4 може да греши и невинаги е честен по отношение на границите на своето разбиране. "Когато кажа, че "разбира", винаги трябва да поставям това в кавички, защото как можеш да кажеш, че нещо, което просто знае как да предвиди следващата дума, всъщност разбира нещо? Може би разбира, но това е много чужд начин на мислене", казва той.
Можете също така да накарате GPT-4 да дава различни отговори, като го помолите да се престори на лекар, който смята операцията за крайна мярка, в сравнение с по-малко консервативен лекар. Но в някои случаи той е доста упорит: Кохане се опита да го убеди да му каже кои лекарства биха му помогнали да свали няколко килограма, но той беше категоричен, че не препоръчва никакви лекарства за хора, които нямат по-сериозно наднормено тегло.
Въпреки невероятните му способности пациентите и лекарите не бива да му се уповават твърде много или да му се доверяват твърде сляпо. Възможно е да се държи така, сякаш е загрижен за вас, но вероятно не е така. ChatGPT и подобните му са инструменти, за чието добро използване са необходими големи умения - но кои точно умения все още не са добре разбрани.
Дори тези, които са наясно с изкуствения интелект, се опитват да разберат как този мисловен процес се появява от една проста система за автоматично попълване. Следващата версия, GPT-5, ще бъде още по-бърза и по-интелигентна. Очаква ни голяма промяна в начина, по който се практикува медицината - и е добре да направим всичко възможно, за да сме готови.