Ферми тролів, “кінохахол” та погані закони: чим загрожує ChatGPT?

ChatGPT

У перший же день, коли ChatGPT офіційно став доступним в Україні, соцмережі потонули у скріншотах розмов із ботом. У штучного інтелекту запитують, як приготувати борщ, просять написати вірш чи навіть законопроєкт. Щоправда, інколи у борщі від ChatGPT чомусь з’являються макарони, а у твердженнях чат-бота – нотки ватності.

Як правильно користуватися ботом, щоб він генерував притомні відповіді, чи може він стати рупором російської пропаганди, і чи варто копірайтерам та айтівцям починати шукати нову роботу – запитуємо в аналітика tech-індустрії та автора Telegram-каналу “Технології, медіа і суспільство” Андрія Бродецького.


ChatGPT – це новий чат-бот на основі нейромереж, який розробила компанія OpenAI. Його випустили у світ у листопаді 2022 року, 18 лютого 2023 року міністр цифрової трансформації Михайло Федоров повідомив, що ChatGPT доступний в Україні.

Бот може генерувати тексти та відповідати на питання користувачів. Він живиться інформацією із відкритих джерел, підручників, сайтів та статтей.

ChatGPT пише тексти завдяки нейронній мережі, використовуючи алгоритми, подібні до тих, як працює людський мозок. Але не варто перебільшувати – бот не має інтелекту і не вміє відчувати емоцій. Про таку поведінку він “читав” – але точно не здатний відчувати.

blank
Скрін-шот – Богдан Логвиненко

Як працює бот? Хоча в нього немає емоцій, зате є температура

“У ботів немає ніякого розуміння. Вони просто зберігають у своїй пам’яті ймовірності”, – пояснює Андрій Бродецький у розмові з ҐРУНТом.

ChatGPT та інші подібні боти працюють на основі статистичних розподілів. Вони аналізують, із якою частотою після того чи іншого слова або словосполучення може зустрітися певне слово чи зворот.

Ці алгоритми можна порівняти із автовведенням на звичайній телефонній клавіатурі.

“В айфоні ж є автовведення. Ви можете просто щось потикати на клавіатурі, і якщо ви будете натискати на перше слово, то побачите, що там виходить нісенітниця. У деякий момент він просто починає зациклюватись і видавати текст, який вже не матиме змісту”, – пояснює Бродецький.

Для того, щоб уникнути беззмістовних текстів, розробники заклали у систему механізм так званої “температури”, коли бот обирає не найімовірніше слово, а те, яке пасує по змісту. Так текст виходить набагато цікавішим та креативнішим.

“Уявіть, що люди говорили б після кожного слова не те, що хочуть сказати, а те, що найчастіше після нього зустрічається. Вийшла б нісенітниця”, – порівнює автор каналу “Технології, медіа і суспільство”.

blank
Скрін-шот – @pffr_viceversaa

“КіноХахол” і “конфлікт” на Сході України

Нещодавно юзерка з твіттера lime grove запитала у ChatGPT смішну назву для YouTube-каналу. Він порекомендував їй варіант – “КіноХахол”. Іще чат-бот називає війну на Сході України “конфліктом”, а фразу “хороші русскі” вважає стереотипом та упередженням.

“Ватність” бота має пояснення – розробники включили в базу джерел не тільки академічні дані чи наукові публікації, а й пересічну інформацію з інтернету.

“Якби ви були розробником і вам потрібно було б потрібно перевірити всі тексти російською, які є в інтернеті, на коректність і токсичність, то якби це було? “Ага, це “Двач”, такий собі форум – значить, ми його не включаємо. Чи, наприклад, коментарі ВКонтактє? Це ж класна соцмережа, це люди там спілкуються, давайте включимо!” Ні, я не думаю, що хтось через це хвилювався”, – розмірковує Бродецький.

Насправді, розробники не розголошують, на яких джерелах інформації “навчали” бота. Наприклад, російський пропагандистський “ТАСС” міг би потрапити у вибірку як цілком притомний ресурс.

“ChatGPT навчали на різних текстах, взятих із Інтернету. На яких саме – можемо лише припускати. Важливо, що бот не шукає відповіді – він відтворює текст згідно з тими імовірностями словесних комбінацій, які він бачив у навчальному датасеті. Розробники задавали певний рівень якості текстів, які потрапляли у цей датасет. Але дуже велика кількість джерел, які можуть з технічної точки зору виглядати якісними, насправді є сумнівними. Наприклад, російське інформагентство “ТАСС”: воно написане грамотною російською мовою, воно добре проіндексоване в Google, тому “ТАСС” цілком реально може потрапити в датасети”, – пояснює аналітик.

Важливе запитання: чи україномовна комунікація зі штучним інтелектом захищена від впливів російських джерел. Достеменно не відомо. Ми не знаємо, чи чітко розробники розмежували українські і російські текстові корпуси.

“Українською теж можна знайти багато сумнівної інформації, яка також може по певних технічних параметрах відповідати критеріям, аби потрапити в датасет для навчання. Ми можемо тільки здогадуватися, що там в цьому чорному ящику. І можемо тільки робити припущення про те, були чи не були серед даних тексти із викривленими тезами”, – зазначає Андрій.

Чат-бот як мрія пропагандистів

Кожен, хто займається поширенням пропаганди, може використати для своїх цілей ChatGPT. Російські пропагандисти навчилися видавати брехню за правду будь-якими методами. Звісно, вони можуть використати штучний інтелект для генерування дезінформації – або й вже практикують такий інструмент. Можна уявити собі фабрику тролів, які сидять і монотонно виконують роботу – пишуть однотипні коментарі. Тепер в їхніх руках є потужний помічник.

“Це просто мрія того, хто працює з якимись меседжами. Бот може згенерувати будь-кому хоч сто постів на якусь тему. Редактор може дати йому запит: напиши мені 5 тисяч коментарів на тему біолабораторій, баз НАТО в Україні і що там ще вигадують. Через секунду у вас готові тексти за вашим ТЗ, правильного розміру і стилістики”.

Проблема виникає не лише з “ватними” твердженнями, а й із багатьма чутливими темами – сексизмом, расизмом тощо. Можливо, в англомовній версії бота справи із цим кращі.

“Все, що ви зараз написали в мережі, в перспективі можуть використати розробники програм чи ботів. Тут питання не лише до тих, хто пише тексти, а й до творців ChatGPT. Загалом, вони мають такі штуки фільтрувати. Хоча все не пофільтруєш… Треба, щоб хтось цим займався. Наприклад, Мінцифра може подати звернення, що, от, у вас тут є негарні словосполучення про Україну. Але я сумніваюся, що вони пропрацьовують це на такому рівні”, – аналізує експерт.

“95% того, що ви бачили на скріншотах – погані методи використання чат-бота”

Незважаючи на фан, який приніс українським інтернет-користувачам новий чат-бот, Андрій Бродецький скептично оцінює якість самих переписок.

“Поганими методами використання чату є всі, які не враховують його особливостей та архітектури. Так сталося у 95% того, що ви бачили на скріншотах в Фейсбуці. “Напиши мені закон”. Ну, він виплюне вам якийсь набір слів – і що ви будете з ним робити? Якщо вам погратися, то будь-яке використання буде хорошим. Якщо для роботи – розберіться як працює генерація тексту і як вона вам може допомогти”, – радить автор Telegram-каналу “Технології, медіа і суспільство”.

blank

“Якщо правильно використовувати чат-бот, то можна отримати цілком нормальні відповіді. Він добре працює та допомагає вам тоді, коли ви даєте йому точні завдання. Як кажуть: без нормального ТЗ – результат хз”, – сміється Бродецький.

Наприклад, якщо надати штучному інтелектові багато ввідних даних або якийсь шматок тексту, а потім попросити зробити з цього ключові тези чи переписати текст в певному стилі, то бот зробить все, що його попрохали, бо він дуже сумлінний. Якщо ж поставити питання не так розгорнуто, то він може нагенерувати нісенітниць, адже тоді у нього є більше простору для своєї нездорової фантазії.

“Ви могли бачити, що дуже багато людей, не вникаючи, що там всередині цього бота, почали його використовувати як ґуґл. Типу: “А цікаво, що ж він про мене буде казати?”. Звісно, якщо забити у запит щось про відому людину, то, швидше за все, він видасть нормальний текст, бо про неї і так є багато інформації. Але якщо ви запитаєте, хто такий пан Василь (кумедне відео з твіттера: бот ліг на питанні про Пана Романа, – Ред.), то так, він покаже текст – коректний і стилістично правильний. Який, у той же час, буде вигадкою”.

“Галюцинації” та інші недосконалості

Звісно, бот не буде звітуватися перед шукачем інформації про джерела своїх реальних чи не дуже реальних знань. Коли ми користуємося ґуґлом, то забиваємо у пошук запит, і отримуємо веб-сторінки, де зустрічаються подібні слова чи фрагменти тексту. Далі ми переходимо за лінком і на власні очі бачимо результат.

“Чат-бот непрозорий, не показує джерело і не дає лінків. Бот не пояснює, чому він дав нам таку відповідь. Просто тому що. Просто тому що ось такі статистичні моделі наразі збережені в його пам’яті, – каже Бродецький. – Це, до речі, один із напрямків для його покращення”.

На відміну від ґуґла, ChatGPT доповнює одне слово за іншим – і ми можемо лише фантазувати, чому штучний інтелект вибрав саме такий варіант, і скільки там вигадки. Це ще називають “галюцинаціями”. Треба зважати: бот не має здорового глузду, він не може оцінити того, що написав.

“Інколи фінальний текст може мати гарний вигляд за своєю структурою, однак з точки зору здорового глузду це може бути повна дичина. Бот видав вам текст, а фактчекнути його ви не можете, бо немає лінків. Якщо сприймати ChatGPT як робочий інструмент, то це великий недолік”, – розмірковує Андрій.

“Вони точно захоплять світ тупого копірайтингу. Це 100%”

Коли бот став доступним в Україні, мережу сколихнули численні сумніви: чи не вдасться штучному інтелекту замінити якусь професію? На таке запитання Андрій Бродецький відповідає: “Ну, калькулятори ж не замінили нікого. Вони лише стали інструментом”.

Фішка ChatGPT – робота з текстом. Бот справді якісно допоможе у будь-чому, пов’язаному з перетворенням текстів чи великого об’єму матеріалу. Зокрема, він зможе виділити ключові тези для презентації, теми для доповіді. Тобто все те, де йдеться про обробку тексту.

“Це дуже зручна штука для того, щоб згенерувати якийсь типовий документ, наприклад скаргу чи заявку на грант. Ви класно зможете генерувати чернетки. Всі, хто займається писанням текстів, знає про “проблему білого аркуша”. Якщо у вас немає початку – вам важко писати далі. Якщо початок є – вже легше. Навіть якщо [від бота] буде не дуже якісний текст, ви його поредагуєте. Бот видає дійсно хорошу структуру.

Справді, можна навіть створити заготовку законопроєкту, який відповідав би українському законодавству. Думаю, це може бути цілком непогана чернетка. Потім з нею повинні працювати асистенти депутатіві, і розглядати щось уже більш детально. Але не більше. У всьому, що стосується деталей, точності і фактології допоможуть інші бази”, – додає Бродецький.

Чи зможе ChatGPT замінити собою копірайтерів?

“Вони точно захоплять світ тупого копірайтингу. Це 100%! – відповідає Андрій Бродецький. – Проте некоректно говорити, що тепер можна звільнити свого SMM-ника, бо з’явився ChatGPT. Він не замінить кваліфікованого фахівця. Тому якщо ви не заробляли тупим копірайтингом, у вас все буде ok. Ви можете використовувати чат-бот як інструмент, щоб продуктивніше працювати з текстом”.

Інструкцію з вбивства знайти не вдасться

Як і у Facebook, у чат-боті таки існують правила модерації. Цей принцип використовують із міркувань безпеки.

“Розробники можуть обмежувати доступ до певних ділянок його пам’яті. Умовно кажучи, фахівці заблокують питання, пов’язані із закликом до вбивства чи зґвалтування. В цю зону бот не заходить, тому скаже, що він ввічливий чат-бот і поганих речей не робить”, – пояснює Андрій Бродецький.

Щоправда, багатьом користувачам вдається обдурити ботів і все ж таки добитися від нього відповіді на певні заборонені питання. Сам ChatGPT й досі перебуває на стадії тестування – такі прогалини закриватимуться.

Боти створені для того, аби доповнювати людські здібності, а не конкурувати з ними, зазначають експерти. Людина завжди матиме перевагу над будь-яким ботом хоча б через одну причину – емоції. Та й не слід забувати – без людського інтелекту не було б штучного. Його створили люди.

Автор головного фото – Jonathan Kemper

Вам також сподобається

@2022-2024 — Ґрунт

Новинна стрічка