Чи хакери використовують AI для зловмисних намірів?

Автор: Roger Morrison
Дата Створення: 1 Вересень 2021
Дата Оновлення: 21 Червень 2024
Anonim
What you need to know about stalkerware | Eva Galperin
Відеоролик: What you need to know about stalkerware | Eva Galperin

Зміст


Джерело: Sdecoret / Dreamstime.com

Винос:

AI має потенціал захисту даних, як ніколи, але також має можливість красти дані, як ніколи. Професіонали безпеки та хакери намагаються максимально використати цю технологію.

Фахівці з кібербезпеки дивляться на штучний інтелект (ШІ) і з ентузіазмом, і з трепетом. З одного боку, він має потенціал додати абсолютно нові шари оборони для критичних даних та інфраструктури, але з іншого, він також може бути використаний як потужна зброя для перешкоджання цим оборонам, не залишаючи сліду.

Як і будь-яка технологія, AI має як переваги, так і слабкі сторони, які можна використати. Завдання сьогоднішніх фахівців з безпеки полягає в тому, щоб зробити крок попереду поганих хлопців, що має початися з чіткого розуміння того, як саме AI може використовуватися як наступальна зброя даних.

Злом AI

По-перше, каже Ніколь Кобі від Wired, ми повинні визнати, що, як і будь-яке середовище даних, AI може бути зламана. В основі кожного інтелектуального процесу лежить алгоритм, і алгоритми відповідають на отримані ними дані. Дослідники вже показують, як нейронні мережі можуть бути підмануті, обдумуючи картину черепахи, насправді це зображення гвинтівки і як простий наклейка на знаку зупинки може призвести до того, що автономний автомобіль заїжджає прямо на перехрестя. Цей тип маніпуляцій можливий не тільки після розгортання AI, але і при його навчанні, що потенційно дає хакерам можливість спричиняти всі види хаосу, не торкаючись інфраструктури підприємства-клієнта.


Хоча, звичайно, не бракує зловживань, єдиною метою яких є заподіяння шкоди людям та заподіяння терору, справжній виграш у гейкерській грі - це виявлення пароля та всі можливості крадіжок / вимагання, які пов'язані з цим. Минулого року Технологічний інститут Стівенса створив програму для демонстрації сили, яку AI приносить цьому процесу. Дослідники вливали ряд відомих програм злому паролів за допомогою інтелектуальних алгоритмів, які були навчені відгадувати ймовірні комбінації символів з особливою літерою, і за лічені хвилини вони придбали понад 10 мільйонів паролів LinkedIn. Коли більше паролів виявлено, звичайно, їх можна використовувати для навчання цих алгоритмів навчання, тому вони з часом стають більш ефективними, навіть якщо застосовуються загальні заходи захисту, такі як звичайна зміна пароля. (Докладніше про паролі див. У розділі "Просто безпечно": легше змінювати вимоги до пароля.)

Чи можливо, що ці інструменти вже використовуються кримінальним підпіллям? З доступними для хмарних сервісів AI та темною павутиною, яка виступає в якості клірингового дому для всіх видів криптовалюти, було б дивно, якби це не було. Фірма з аналізу загроз Darktrace каже, що виявляє ранні ознаки популярних програм зловмисного програмного забезпечення, таких як TrickBot, що демонструють неправдиву обізнаність у своїх квестах щодо крадіжки даних та блокування систем. Вони ніби знають, на що звернути увагу та як їх знайти, вивчаючи цільову інфраструктуру, а потім вирішують для себе найкращий спосіб уникнути виявлення. Це означає, що програмі більше не потрібно підтримувати зв’язок з хакером через сервери команд та управління чи інші засоби, що зазвичай є одним із найефективніших засобів відстеження винного.


Тим часом, традиційні афери фішингу починають виглядати все більш справжніми, значною мірою тому, що інструменти AI можуть зробити початкові дані, що надходять із надійного джерела. Наприклад, обробка природних мов призначена для імітації людської мови. У поєднанні з легкодоступними даними, такими як імена виконавців та адреси, вони можуть створити настільки реалістичний запуск, що може обдурити навіть близьких партнерів.Середній споживач однаково сприйнятливий, враховуючи можливість AI обробляти всі види даних, щоб ввести шахрайство з персоналізованою інформацією.

Боротьба назад

Як було сказано вище, проте AI - це двостороння вулиця. Хоча це може дозволити хакерам запускати кола навколо традиційних систем безпеки, це також робить нинішні системи безпеки набагато ефективнішими. За даними страхового журналу, Microsoft нещодавно змогла зірвати спробу злому своєї хмари Azure, коли її режим безпеки, пронизаний AI, виявив помилкове вторгнення з віддаленого сайту. Спроба пройшла б непоміченою за попередніми протоколами, заснованими на правилах, але здатність AI навчитися та адаптуватися до нових загроз повинна різко покращити здатність підприємства захищати себе, навіть коли дані та інфраструктура просуваються повз традиційний брандмауер у хмару та Інтернет речі. Усі найвищі постачальники хмарних високих масштабів агресивно впроваджують інтелектуальний інтелект на своїх захисних стопах, оскільки чим швидше він буде введений в дію, тим більше він дізнається до того моменту, коли зіткнеться з хакерськими можливостями. (Щоб дізнатися більше, перегляньте статтю про те, як просування AI впливає на безпеку, кібербезпеку та злом.)

Таким чином, AI є лише останньою ескалацією війни за безпеку, яка триває десятиліттями. По мірі появи нових загроз, назустріч їм піднімаються нові захисні сили, і ті самі основні технології підживлюють обидві сторони.

Ні помилок, ні стресу - покроковий посібник зі створення програмного забезпечення, що змінює життя, не руйнуючи ваше життя

Ви не можете покращити свої навички програмування, коли ніхто не піклується про якість програмного забезпечення.

Якщо що-небудь, AI, ймовірно, пришвидшить цей процес, одночасно видаливши багато практичних заходів від операторів людини. Це буде хороша справа чи погана справа для кібер-воїнів сьогодні? Ймовірно, поєднання як білих капелюхів, так і капелюхів негрів відмовляється від гайок і болтів кодування їхніх нападів та оборонних сил і концентрується на більш стратегічних аспектах сучасної кібервійни.