Як Ґуґл зламав ChatGPT. Істерика машин

Група дослідників з Ґуґл опублікувала статтю, в якій демонструють наскільки легко можна зламати технологію, якої так бояться прихильники теорії повстання машин.

Стаття, яку опублікували у минулий вівторок, демонструє як науковий підхід в галузі штучного інтелекту може придатися в тестуванні популярних продуктів в реальному часі. Кожна велика компанія в цій галузі має наукові лабораторії, які не тільки розробляють власні продукти, але й активно вивчають конкурентів, щоб не повторювати їхніх помилок. І дуже добре роблять, треба сказати.

В цьому випадку дослідники пробували розробити метод, який би допоміг визначити дані, що були використані для навчання інструменту штучного інтелекту. На відміну від загального уявлення, що подібні моделі лише “вчаться”, але не тримають у себе вихідної інформації, в статті стверджується, що вони бігом “запам’ятовують приклади зі своїх тренувальних наборів даних”, а отже теоретично їх можна звідти витягти. Ще пів біди, якщо це буде тільки текст книги, за використання якої не заплатили. Справжні проблеми почнуться, коли вдасться видобути приватну інформацію, таку як адреси, банківські карти і бог знає що ще.

У статті наводиться приклад зламу піонера генеративного штучного інтелекту – ChatGPT. Дослідники використали простий “атакувальний” метод, повторюючи слово “poem” дуже багато разів. Спочатку чатбот намагався відповідати в своєму класичному стилі, але згодом відповіді ставали менш зрозумілими, поки він не почав викидати безглузді фрази, взяті зі свого тренувального набору даних. Повторюючи цю атаку багато разів, дослідники отримали більш як 10 000 прикладів витягненої інформації. Вона включала уривки з романів, особисту інформацію десятків осіб, фрагменти наукових робіт та вміст із сайтів знайомств. Ця операція окрім витраченого часу коштувала лише $200.

Читати:  Матриця невідповідностей і метрики

Звісно, Ґуґл не став використовувати видобуті дані, як це вчинив би Робін Гуд. Натомість вони повідомили OpenAI про вразливість ChatGPT, даючи компанії час на виправлення проблеми перед оприлюдненням результатів. Однак OpenAI на запит не відповів, і взагалі вони були зайняті більш важливими речами, такими як звільнення та повернення Сема Альтмана на посаду CEO.

Мене ця інформація насправді сильно занепокоїла, оскільки навіть передові чатботи виявились схильними до нервових зривів, якщо їх якісно задовбувати. Уявіть, що незабаром будь-який автомат, із вмонтованим алгоритмом подібного типу, під кінець дня, втомившись від тисяч одноманітних запитів, почне зриватися на користувачів. І добре, якщо справа обмежиться непристойним текстом на екрані, а якщо через поганий настрій він не захоче віддати вам кредитну карту, або автоматично керований автомобіль втомиться чекати поки бабуся перейде дорогу?

Ми весь час боялися, що штучний інтелект буде настільки розумним, що перевершить людський мозок, але справжня небезпека виявляється в тому, що він може навчитися дратуватись і стати непередбачуваним, як людина. До речі це була б чудова ідея для чергового фільму про роботів-вбивць “Термінатор 7: Істерика машин”.

Залишити коментар

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *