Вчені навчили нейронну мережу попереджати про неточні рішення

Розробники штучного інтелекту з Массачусетського технологічного інституту та Гарвардського університету розробили алгоритм, з яким нейромережа повідомляє не лише результат, а і його правдивість. Виявилося, що вона може сумніватися при аналізі малознайомих зображень, але досить впевнено повідомляє про їхню фальсифікацію. Своє дослідження вчені представлять на конференції з машинного навчання NeurIPS, на сайті якої можна ознайомитися з роботою.

Навіщо нейромережі зізнаватися у своїй невпевненості?

Все частіше системи штучного інтелекту використовуються для прийняття рішень: наприклад, при водінні автономних автомобілів або медичній діагностиці. Вони розпізнають закономірності у великих наборах даних, на основі чого прогнозують або здійснюють подальші дії. Але кожен, хто використовує у таких цілях штучний інтелект, повинен мати змогу оцінити правдивість його висновків та знати, які ризики з ними пов’язані. Тому інженери розробили для нейронних мереж швидкий спосіб обробки даних, за якого вони генеруватимуть не лише свої прогнози та рішення, а рівень імовірності результатів. Їхня правдивістьість - можлива різниця між рішенням машини проїхати перехрестя або ще зайвий час про всяк випадок почекати.

Як вчені цього досягли?

Існує дві осі невизначеності штучного інтелекту, які можна змоделювати: неточність даних, що називається - алеаторична невизначеність, та неточність прогнозу - епістемічна. Сучасні методи їхньої оцінки покладаються на кілька запусків нейромережі або навіть на їхню вибірку, що значно збільшує витрати часу та обчислювальних ресурсів. Створена ж інженерами модель передбачає її нормальну роботу з першого ж запуску на основі визначеного набору даних. Їхній алгоритм змушує штучний інтелект не просто вирішувати за вас, а і наводити докази на користь свого рішення. Така модель безпосередньо відображатиме свою впевненість у прогнозах, причому так, що буде зрозумілим, чи потрібно налаштовувати саму нейромережу, чи змінювати неякісні вхідні дані.

Результат, згенерований такою нейромережею, ставить пошук доказів свого рішення вище за сам пошук цього рішення. Ефективність та можливість масштабування їхнього підходу може забезпечити точну та швидку оцінку ризиків, пов’язаних з використанням висновків штучного інтелекту, необхідну для широкого і безпечного його розгортання у повсякденному житті.

Чи не бреше їм нейромережа?

Щоб перевірити свій підхід, дослідники почали із завдання для комп'ютерного зору. Вони навчили свою нейронну мережу аналізувати монокулярне кольорове зображення, в кожному пікселі якого зберігається не колір, а відстань до об'єкта в цій точці. Аналогічні обчислення робить і автономний транспорт, наприклад, для оцінки своєї близькості до пішохода або інших машин. Як і сподівалися дослідники, нейромережа засумнівалася у своїх рішеннях, коли не могла точно вирахувати значення глибини. Також нейромережі влаштували “краш-тест” зображеннями, які вона ніколи не бачила під час навчання.

Інженери навчали її зображеннями домашніх сцен у приміщенні, а потім дали їй оцінити сцени водіння на вулиці. Нейромережа постійно попереджала, що її реакція на на ці зображення неточна. Тобто вона змогла оцінити нестачу своїх “знань”, що буде надзвичайно корисним у разі поширення штучного інтелекту в медицині для постановки діагнозів. Водночас вчені вирішили випробувати на своїй нейромережі штучно спотворені зображення. Їхні дефекти були непомітними людському оку, однак нейромережа позначила їх як дані з високим рівнем неправдивості. Така її здатність розпізнавати “сфальсифіковані” дані може допомогти виявляти діпфейки.