Дебатът от вчера се роди от напрежението по време на срещата на върха за изкуствения интелект. Къде да се постави фокусът в регулациите на риска? Говориха за екзистенциалните проблеми – може са след 1-2-3-4 години или по-далеч или пък вече са тук. Дезинформацията, въпросите за данните и киберсигурността, сегашните проблеми. Къде сте вие в този дебат?
Това е не само е важен дебат, но трябва да се действа сега по сегашните проблеми. Защото сега се поставят основите за бъдещето.
Ако съм научила нещо във всички тези години с изкуствения интелект, това е хората трябва му имат доверие. Трябва да се реши първо най-големият проблем сега около дезинформацията. Или за използването на изкуствения интелект за неща като финансовите решения или здравето на хората.
Фирмите трябва да носят отговорност за този изкуствен интелект и неговото използване.
Затова бих се насочила и към двата проблема, но мисля, че веднага трябва да се заемем едновременно и с плюсовете, и с минусите му.
Регулациите и правните усложнения, това е друга тема, която излезе около изкуствения интелект. Казахте, че компаниите трябва да се отнасят критично информацията, която влиза в изкуствения интелект. При вашия опит от компании, които са го използвали в ранен етап, какво трябва да разберем за типа данни, които трябва да се прилагат в обучението му?
Това е основния проблем. Да използвате данни, на които имате най-голямо доверие. Ако имате доверие в тези данни, ще се доверите и на резултата.
Тогава ще излязат победителите, които ще предложат приложение с голямо доверие в данните при обучението.
Правилните регулации са тези, които не са за самата технология, а за използването й в рискова ситуация и въвеждане на отговорност за това.