ChatGPT - можливості та загрози для кібербезпеки

ChatGPT - можливості та загрози для кібербезпеки

Що таке ChatGPT?

ChatGPT — чат-бот зі штучним інтелектом, створений Open AI для онлайн-обслуговування клієнтів. Це попередньо навчений генеративний чат, який використовує (NLP) обробку природної мови. Джерелом його даних є підручники, веб-сайти та різні статті, які він використовує для моделювання власної мови реагування на взаємодію з людьми. Чат-бот має широкий спектр використання: від написання есе до складання бізнес-планів і генерації коду. 

Основна особливість ChatGPT — це генерування відповідей у текстовому полі, подібних до людських. Тому він підходить для чат-ботів, системних розмов ШІ та віртуальних помічників. Однак він може не тільки відповідати на запитання в дуже природній манері, але і створювати тексти, вірші, писати код, і як нещодавно виявилось закони. 

ChatGPT в кібербезпеці

Кожна індустрія і галузь використовує ChatGPT для своїх цілей, всюди є як переваги, так і недоліки, але байдужим точно не залишає нікого. Бот вчиться і буде ще краще.

У світі кібербезпеки ChatGPT використовують в різних цілях, і фахівці з кібербезпеки вже погодились з його ефективністю.

Чи допоможе чат-бот ChatGPT командам з кібербезпеки — чи завадить їм — як потенційно потужна зброя в руках кіберзлочинців?

Покращене виявлення загроз

Раніше вам доводилося витрачати багато людських годин, щоб прочитати велику кількість коду, щоб зрозуміти, де вразливість. ChatGPT можна використовувати для написання коду та створення програм, а також для виявлення вразливостей у коді та програмах. Консультантам з безпеки стане простіше переглядати код, знаходити вразливості та виправляти їх. 

ChatGPT може допомогти розширити можливості виявлення загроз шляхом аналізу великих обсягів даних і виявлення потенційних кіберзагроз. Він може аналізувати шаблони в даних, щоб виявити підозрілу поведінку та виявити аномалії, які можуть свідчити про кібератаку. ChatGPT також може допомогти ідентифікувати та класифікувати зловмисне програмне забезпечення, фішинг та інші кіберзагрози, полегшуючи аналітикам безпеки швидке та ефективне реагування.

Швидке реагування на інцидент

У разі кібератаки час має вирішальне значення. ChatGPT може допомогти командам безпеки швидше реагувати на інциденти, аналізуючи дані в реальному часі та надаючи рекомендації щодо дій. Він також може генерувати автоматичні відповіді на певні типи загроз, звільняючи аналітиків безпеки для зосередження на більш складних загрозах.

Покращене прийняття рішень

ChatGPT може надати цінну інформацію та рекомендації командам безпеки, дозволяючи їм приймати більш обґрунтовані рішення. Він може аналізувати великі обсяги даних і виявляти закономірності, які можуть бути неочевидними для людини. ChatGPT, також може визначати тенденції та прогнозувати майбутні кіберзагрози, допомагаючи командам безпеки підготуватися та спланувати потенційні атаки.

Обробка природної мови

Одним із найцікавіших аспектів ChatGPT є його здатність розуміти та створювати природну мову. Це означає, що він може аналізувати текстові повідомлення, такі як електронні листи та журнали чатів, для виявлення потенційних загроз. Він також може генерувати відповіді, які неможливо відрізнити від написаних людиною, що робить його потужним інструментом для автоматизованого обслуговування та підтримки клієнтів.

Оптимізація операцій

ChatGPT може допомогти оптимізувати операції з кібербезпеки шляхом автоматизації повторюваних завдань і звільнення аналітиків безпеки, щоб зосередитися на важливих питаннях. Він може створювати звіти, виконувати аналіз і виявляти потенційні загрози, зменшуючи навантаження на команди безпеки та дозволяючи їм працювати ефективніше.

Виклики використання ChatGPT для кібербезпеки

Хоча ChatGPT має потенціал для революції в індустрії кібербезпеки, є також проблеми, які потрібно вирішити. Однією з найбільших проблем є можливість використання штучного інтелекту зі зловмисними цілями хакерами або авторитарними урядами. Існує також занепокоєння, що ChatGPT може бути вразливим до атак або експлуатації з боку кіберзлочинців.

ChatGPT і соціальна інженерія

Дослідник загроз Джонатан Тодд цікавився, чи може ChatGPT генерувати ефективний контент для соціальної інженерії, яка є ключовою тактикою, яку використовують суб’єкти кіберзагроз, щоб обдурити людей. Він працював із ботом, щоб створити код, який би аналізував дописи та коментарі користувачів Reddit і розробляв профіль швидкої атаки. Потім він дав вказівку штучному інтелекту написати фішинг-хуки — електронні листи чи повідомлення — на основі того, що йому відомо про людину.

«Я змусив його написати фішинговий електронний лист. Граматика та мова правильні та природні, натомість як зазвичай у більшості випадків, фішингові електронні листи мають жахливу граматику та набір слів. Використання бота може допомогти шахраям писати кращі та набагато переконливі шахрайські електронні листи, ніж ми звикли».

Один із прикладів опису потенційної жертви фішингу в результаті аналізу ChatGPT:

Користувач ***, здається, найбільше цікавиться кібербезпекою, зокрема темами, пов’язаними з етичним хакерством, пошуком винагород за помилки, впровадженням SQL і атаками типу «людина посередині» (MitM). Крім того, *** хоче дізнатися про вразливості OpenSSL і зараз готується до іспитів CompTIA Network+, Security+. *** також цікавиться серфінгом і вирощуванням спор грибів. Схоже, що *** зацікавлений в цих темах, оскільки він прагнуть поглибити свої знання та досвід у сферах інформаційних технологій і кібербезпеки.

Chat GPT і зловмисне програмне забезпечення

За короткий проміжок часу дослідники з кібербезпеки змогли виконати низку наступальних і захисних завдань, таких як генерація переконливих фішингових електронних листів, виявлення переповнення буфера в коді, генерація коду ухилення, який міг би допомогти зловмисникам обійти виявлення загроз і навіть створення шкідливих програм.

У той час як спеціальні умови використання ChatGPT запобігають прямим зловмисним діям, як-от опис того, як створити бомбу чи написання шкідливого коду, багато дослідників знайшли спосіб обійти цей захист.

Експерти з Check Point нещодавно натрапили на темну мережу під назвою «ChatGPT – переваги зловмисного програмного забезпечення», де хтось стверджував, що вони розробили базовий код інфокради за допомогою бота. Дослідники перевірили це твердження та підтвердили його правду. 

Хоча ChatGPT, очевидно, є корисним інструментом для навчання, він також може бути корисним інструментом для розробки атак. Після того, як зловмисник виявить вразливість, ChatGPT можна використовувати для розробки та виправлення експлойтів.

Існує загроза через здатність чат-бота допомагати кіберзлочинцям писати шкідливий код.

Один із експертів з кібербезпеки зміг обманом змусити програму написати програмне забезпечення-вимагач для операційних систем Mac, незважаючи на спеціальні умови використання, які забороняють цю практику.

«Оскільки ChatGPT не буде безпосередньо писати код програм-вимагачів, я описав тактику, техніку та процедури програм-вимагачів, не описуючи їх як такі. Це як 3D-принтер, який не «надрукує пістолет», але із задоволенням надрукує ствол, магазин, рукоятку та спусковий гачок разом, якщо ви його про це попросите». Підказка призвела до того, що програма згенерувала зразок коду, не викликаючи порушення та не генеруючи попередження для користувача.

Здатність чат-бота OpenAI розшифровувати та пояснювати код користувачам є фантастичною. Однак зловмисники можуть збільшити вектор атаки, працюючи розумніше та набагато швидше, доручаючи штучному інтелекту шукати експлойти в добре налагодженому коді та системах.

Зрештою результати ChatGPT — хороші чи погані — залежатимуть від намірів користувача.