Костянтин Корсун, експерт з кібербезпеки
Мені не подобається термін штучний інтелект, тому що він не інтелект насправді
26.07.2023 09:30
Костянтин Корсун, експерт з кібербезпеки
Мені не подобається термін штучний інтелект, тому що він не інтелект насправді
26.07.2023 09:30

Донедавна ми спостерігали за зразками штучного інтелекту (далі – ШІ), як за чимось, що відбувається в далекій країні, що стане звичним в Україні колись, у далекому майбутньому. В Оксфорді «модель Мегатрон» провів дебати з самим собою щодо користі ШІ. В Кембриджі «модель Project Debater» провела дебати з аудиторією, де довела, що від штучного інтелекту користі більше, ніж шкоди...

Моделі ШІ давно обігрують у шахи гросмейстерів, перемагають у вікторинах, виконують непрості хатні роботи… Втім, ще з десяток років тому все це були окремі експерименти, за якими слідкували інтелектуальні аудиторії.

Але нині моделі ШІ вийшли з лабораторій техногігантів на “вулицю”, вже є сотні розробок для роботи з текстом, звуками, візуалом. В Україні сплеск інтересу до ШІ прийшовся на початок 2023 року, коли з’явилася розробка OpenAI ChatGPT. Це в тім числі й українськомовний чат-бот, який веде діалог та продукує контент. Цифра в понад два мільйони відвідувачів буквально за кілька днів, відколи чат зареєструвався в Україні, свідчить і про інтерес до нього, і про те, що ШІ – наше близьке майбутнє.

Як нам жити в світі машин, які змагаються з людьми у найскладніших сферах? Ми говоримо про це з Костянтином Корсуном, у минулому керівником підрозділу по боротьбі з кіберзлочинністю в СБУ, засновником першого центру реагування на надзвичайні ситуацій у Держспецзв’язку, одним з найпомітніших українських експертів.

ЛЮДСЬКИЙ МОЗОК – НАСТІЛЬКИ ПОТУЖНИЙ СУПЕРКОМП’ЮТЕР, ЩО ЖОДНА РУКОТВОРНА МАШИНА НЕ ЗДАТНА З НИМ ЗРІВНЯТИСЯ

- Пане Костянтине, давайте розберемося з термінами. Що воно таке. Штучний інтелект – це технологія. А на його основі формуються моделі, застосунки, які діють по принципах людського мозку, правильно?

- Ні, це не аналог мозку, це поки що слабенька «ксерокопія». Треба спочатку для себе усвідомити, що ми маємо на увазі під словосполученням людський інтелект? Це якісь найвищі зразки людської мозкової активності – Енштейн, Корольов, чи це узагальнено середній рівень, коли йдеться про здатність відрізняти букви від цифр, або здатність ходити на вибори і голосувати за когось?

Якщо ми беремо умовно середній рівень інтелекту, не топові зразки мозкової активності людини, тоді власне і робот-пилосос може бути зразком ШІ. Тобто, штучним інтелектом можна вважати будь-що автоматизоване. Будь-яку комп’ютерну програму, по ідеї, можна вважати штучним інтелектом, тому що вона автоматизує людську роботу, просто робить це швидше і без помилок.

Якщо повернутися до історії питання, то в 1950 році Алан Тьюрінг придумав так званий тест Тьюрінга, він полягав у тому, щоб якимось чином відрізнити машину від людини. Суддя задавав одні й ті самі запитання машині та людині, його завдання було за відповідями визначити – хто людина, а хто машина. Ось одне з можливих запитань, наприклад: «Цей приз занадто великий чи маленький, щоб поміститися у валізу?». Людина розуміє, що таке приз, що таке валіза, що таке занадто малий чи занадто великий. Людина не скаже, що приз надто маленький, щоб поміститися у валізу, бо це нісенітниця. А машина цього не знає, машина не має критеріїв, вона не прожила життя в певній лінгвістичній і культурологічній моделі, щоб знати і виходити з того, що таке валіза і що таке приз. Ось це, в принципі, головне, що ще довго буде відрізняти людину від будь-яких наддосконалих програм: креативне, нестандартне, абстрактне мислення – те, чого дуже складно навчити. Як навчити машину почуттю гумору? Можна загнати в неї 100 тисяч анекдотів, які визнані безумовно смішними, мільйон анекдотів, від яких комусь смішно, а комусь взагалі не смішно. Але саме почуття гумору, такі поняття, як любов чи емпатія – йому не властиві.

- А я про це в курсі. Коли спілкуюся з ChatGPT, то він мене чесно попереджає: мовляв, я не маю почуттів, але я завжди до твоїх послуг.

- Це досліджені, математично прораховані реакції. У ШІ немає розуміння того, що це насправді означає, він копіює діяльність людини по зовнішніх ознаках, йому заганяють типові запитання і відповіді й навчають, як краще відповідати: якщо сказати те, людина буде реагувати так, а на виході буде ось так. Є такий термін – machine learning. Машину закидають мільйонами прикладів, їм згодовують великі масиви даних із заздалегідь визначеними алгоритмами. «Розкажи мені смішний анекдот про квіти, про автомобіль!» Він обов’язково вам відповість, але не факт, що він буде смішним саме для вас. Людський мозок – це настільки потужний суперкомп’ютер із колосальною кількістю вхідних даних, які за мілісекунди обробляються в шалених швидкостях, що жодна рукотворна машина не здатна порівнятися з людським мозком. Нам інформація заходить через зоровий канал, через вуха, через шкіру, навіть через ніс. Більшість інформації через очі заходить, і вона в мозку людини обробляється просто миттєво. Ми навіть не замислюємося, що там взагалі обробляється – настільки швидко це відбувається. Мільярди операцій за секунду проходять між заходом інформації і висновком – що нам робити (наприклад, що треба взяти парасольку). До такого рівня жодна програма, жоден суперкомп’ютер поки що навіть і не наблизилися.

- Але ж їх по аналогії з мозком називають «нейронкою»

- Ще раз – ні. Нейронні мережі людини – незрівнянно досконаліші за комп’ютерні мережі, просто небо і земля. Те, що називається штучним інтелектом – це велике нагромадження складних систем, але всі вони діють за алгоритмами, написаними людиною, і рішення вони приймають ті, які дала людина.

ПОВСТАННЯ МАШИН МОЖЛИВЕ, АЛЕ НЕ В НАШОМУ ЖИТТІ

- Поки що ШІ далеко до людини... Але ж Ілон Маск проти! Він спочатку вкладався в штучний інтелект, потім впав у депресію, бо той надто швидко розвивається. І ще є бувальщина, як Маск сказав відомому розробнику ШІ: мовляв, займаюся колонізацією Марсу, щоб нам було куди втікати, коли повстануть машини. На що розробник відповів: а машини тоді полетять за вами на Марс. Чи реальне повстання машин?

- Про повстання машин. Люди вигадують нові технології, щоб полегшити собі життя, а не ускладнити. А повстання машин – це сильне ускладнення життя, я впевнений – люди просто не допустять цього. Так, технології будуть розвиватися, але вони будуть і стримуватися в якійсь частині.

Щодо Маска… Я думаю, він просуває думку якоїсь частини американського провладного істеблішменту, який побачив якісь для себе загрози.

Стримувати розвиток технологій – це приблизно, як намагатися зупинити вітер: можна відгородитися чи залізти в бункер, але сам вітер буде собі дути, як дув. Поки що немає таких технологій, щоб зупинити вітер.

- Ви не вірите в повстання машин?

- Не в нашому житті. Воно можливе теоретично, але до нього ще стільки поколінь, кожне зі своїми злетами й падіннями, що ми з вами точно цього не застанемо.

- Одна з популярних нині дискусій: чи не збільшиться безробіття через розвиток ШІ? Наприклад, з’явилися віртуальні помічники (фактично, теж моделі ШІ) в державних чи інших установах – і тепер до нормального живого оператора не додзвонишся. Кому від того добре? Адже часто користувачеві від того погано, співробітникам кол-центрів погано, хіба що роботодавцям добре, які не платять зарплату живим людям.

- Так було, так є зараз і буде надалі. Якісь професії будуть відмирати, а інші з’являтися, це – прогрес. Якщо ти до цього не пристосуєшся, будеш викинутий на узбіччя. Але для технологій є період адаптації, некоректного застосування, зловживання, так завжди було з усіма винаходами – з автомобілем, з телевізором, з космічними технологіями. Період апробації необхідний. Наприклад, кілька готелів у Японії замінили працівників людиноподібними роботами. А за кілька років – прибрали тих роботів, незважаючи на купу витрачених на них грошей: не виправдала себе ця технологія. Розвиток технологій – хвилеподібний, на великому періоді його можна побачити, а на короткому – не так: результат ось ніби вгору йде, але якщо ближче подивитися, то може бути все навпаки – і вбік, і вниз.

А щодо ШІ, то дуже популярна зараз думка: буде більше операторів по роботі зі штучним інтелектом. Будуть затребувані професії задля обслуговування штучного інтелекту, його навчання, введення йому даних, покращення алгоритмів його роботи.

- Це ж треба бути айтішником?

- Не обов’язково, я думаю, що тут будуть затребувані й психологи, і фізіологи, тому що наші реакції у багатьох випадках диктуються фізіологічними станами, і лінгвісти будуть потрібні, бо мова кожного народу постійно розвивається, щось змінюється, щось додається, сленг з’являється. Нарешті, почуття гумору в різних народів теж дуже різне…

Тобто, тут буде місце для багатьох професій.

- На якомусь тренінгу я чула таке: що у вас забере роботу не штучний інтелект, а людина, яка його обслуговує.

Все, що можна автоматизувати, слід і треба автоматизувати, це закон розвитку і технологій, і людини

- Мені не подобається термін штучний інтелект, тому що він не інтелект насправді. Це автоматизація людської діяльності. Інтелект – це коли ми самі отримуємо дані й приймаємо рішення самостійно, незалежно. Свобода вибору, усвідомлення самого себе, здатність творити, мислити нестандартно, абстрактно, коли це треба, – ось цього всього немає у так званого штучного інтелекту. Але так, для простоти нехай ми будемо називати його штучним інтелектом. Але повторюю: інтелектом він досі не є, він не приймає самостійні рішення.

- Але я чула, що в деяких західних пресслужбах установ уже замінили райтерів, моделі ШІ там пишуть по шаблону.

- Все, що можна автоматизувати, слід і треба автоматизувати, це закон розвитку і технологій, і людини. Автоматизував – і забув. Якщо є щось, що людина виконує вже механічно, є алгоритм, ось конвеєр – шльоп, шльоп, нуль творчості, нуль абстрактного рішення – ось такі процедури необхідно автоматизувати, що власне і робиться. В Україні – теж.

- На одному з вебінарів по штучному інтелекту, на запитання журналістів про долю журналістики, лектор сказав, що ШІ не здатний написати репортаж. Слава Богу, я люблю жанр репортажу і рада, що не маю конкурента в особі ШІ. Скажу більше, коли готувалася до інтерв’ю, попросила ChatGPT згенерувати кілька запитань для вас. І жодне з того, що він запропонував, мені не підійшло для першої розмови.

Ми ще надто мало знаємо про власний мозок – суперпотужний суперінструмент – а вже намагаємося робити його цифровий аналог

- ШІ вміє те, що давно відомо, стандартизовано, коли технологічний процес відпрацьований, як-то кажуть “нажимай – і вперед”; якщо це офіційні пресрелізи, даєш йому фактаж, даєш зразок – як це викладалося у тисячах попередніх пресрелізів, де всюди в кількох абзацах сухий канцелярит – то ШІ блискуче з цим справляється, тут же не потрібно ні мислення нестандартного, ні якісь неочевидні висновки, ні складні прогнози. ChatGPT цього робити поки що не вміє, це аналітична робота. А людина – як “робить” у себе в голові? Десь безсвідомо зберігається інформація, вона в більшості випадків безсвідомо обробляється і – результат: чому так – я не можу пояснити, але я думаю, що буде ось так.

- Інтуїція – це прихована логіка, а з логікою в ШІ не дуже…

- Абсолютно вірно, інтуїція – це обробка вашим мозком інформації, яка відбувається без безпосередньої участі тієї частини мозку, яка відповідає за самоідентифікацію людини. Тобто, на периферії мозку відбуваються інтенсивні процеси обробки інформації, передаються результати, які інтегруються з вашими попередніми висновками – і ви кажете, що у вас виникає думка. Про те, як працює мозок, людство досі мало що розуміє, попри всі досягнення медицини. Ми фактично ще нічого не знаємо про власний мозок – суперпотужний суперінструмент – а вже намагаємося робити його цифровий аналог.

- Ви вивчали кіберзлочинність, а ШІ – це поняття відкрите. Чи є там поле для зловживань? Чи можливо так, що приходить хтось і каже: «Я твій віртуальний помічник», а це насправді буде якийсь чувак з Даркнету?

Даркнет чи кіберзлочинність миттєво підхоплюють усі новації. Для них це – нові інструменти

(DarkNet – анонімна, ніким не регульована мережа, сегмент Інтернету, прихований з загального доступу, спрощено кажучи – «підпільний» інтернет, де відбуваються і обмін інформацією, й торгівля шкідливим програмним забезпеченням, або персональними даними).

- Цілком можливо, адже Даркнет чи кіберзлочинність миттєво підхоплюють усі новації. Для них це – нові інструменти. Вони діють швидше, ніж будь-хто, й одразу застосовують нове. Може йтися про примітивне шахрайство, коли на хайпі люди реагуватимуть. Наприклад, на щось таке: «Штучний інтелект украв у жінки сумку». Такий собі абсолютний клікбейт, але за рахунок хайповості буде більше кліків на фішингові листи. Так, це примітивна технологія. Але ШІ може бути помічним і там, де йдеться про серйозний рівень кіберзлочинності, там, де йдеться про «шели, експлойти, Z-day...»

- Хочете сказати, що ШІ може продукувати шкідливе програмне забезпечення?

- Звісно. А шкідливе програмне забезпечення – це такий самий софт, просто у нього функції інші, й вірус notPetya – це просто софт, кривенький, поганенький, але з унікальним алгоритмом поширення.

Той же Malware чи «Малварь» (шкідливий програмний засіб) – це софт, не більше, але його пишуть люди, програмісти, і тепер це стало значно легше, швидше і якісніше. Люди-програмісти пишуть код і часто помиляються. А ШІ, якщо правильно йому поставити задачу, помилятися не буде. А ще при підготовці софту є багато допоміжних операцій, готовий код – це вершина айсберга, а під ним – безліч операцій, взаємодія між різними фахівцями, тестування тощо. Підготовка шкідливого софту мало чим відрізняється від розробки софту легального, адже й там код, і там – просто код. До речі, остання версія ChatGPT – просто «агінь».

- А ви вже бачили в Даркнеті реакцію хакерів на останні версії штучного інтелекту?

Алгоритм видачі Фейсбуку – це теж певним чином штучний інтелект

- Так, це моя професія, я цікавлюся (сміється), часто нічого й шукати не треба, люди просто лінки мені кидають, я навіть не шукаю. Знову ж таки Фейсбук підглядає, чим я цікавлюся, і відповідно видає рекомендації, пропозиції – що почитати. Алгоритм видачі Фейсбуку – це теж певним чином штучний інтелект.

- Я-от час від часу намагаюся навчити ChatGPT розбиратися в питаннях автокефалії. Щоб він «дивився» на світ очима українських вірян і враховував їхню думку, коли продукує контент на запити. Є люди, які кажуть, що «нерозробник», звичайний користувач просто не має таких прав. Мені ж здається, що навчити можна. Бо коли я «згодовую» йому інформацію, наприклад, про боротьбу за українську автокефалію 100 років тому чи дані про набуття Томосу, а потім заходжу в інший чат і задаю йому подібні запитання – мені здається, що він уже відповідає моїми словами. Тож чи може простий користувач навчити чогось ChatGPT?

- Звісно, може. ШІ керують алгоритми, написані людьми, і рішення кінцеве, кореневе вони ж приймають. Наприклад: що користувачі не можуть навчити програму напряму. Чому? Бо люди можуть свідому дезу програмі «згодовувати», хворі психічно можуть щось туди писати і пишуть дуже часто. Але...

- А чи зможе штучний інтелект самостійно почати застосовувати зброю? БПЛА? При цьому, як ворог?

- Так, це можливо і це буде застосовано обов’язково, в історії людства всі найпередовіші технології спочатку окуповувалися військовими, бралися на озброєння військовими. Нині віддавати ШІ зброю, прийняття рішень щодо застосування зброї – більш ніж зарано. Але це неодмінно буде реалізовано. Коли? Як тільки розробники цих технологій будуть на сто відсотків переконані, що штучний інтелект не застосує його проти них самих.

Лана Самохвалова, Київ

Фото: Геннадій Мінченко

Розширений пошукПриховати розширений пошук
За період:
-