Навчання підсилення може надати приємний динамічний оберт маркетингу

Автор: Roger Morrison
Дата Створення: 1 Вересень 2021
Дата Оновлення: 1 Липня 2024
Anonim
Навчання підсилення може надати приємний динамічний оберт маркетингу - Технологія
Навчання підсилення може надати приємний динамічний оберт маркетингу - Технологія

Зміст



Джерело: Juliatimchenko / Dreamstime.com

Винос:

Навчання зміцненню - це підмножина штучного інтелекту та машинного навчання, яка може передбачити результати та допомогти користувачам приймати кращі рішення.

Маркетологи постійно шукають масштабованих та розумних рішень, намагаючись досягти переваги в умовах все більш конкурентоспроможних маркетингових умов. Недарма штучний інтелект (AI) та машинне навчання (ML) зараз масово приймаються брендами та їх маркетинговими організаціями. (Щоб дізнатися більше про основи ML, перегляньте машинне навчання 101.)

Для непосвячених АІ можна загалом розглядати як технологію, коли комп'ютер автоматизує визначені завдання, які б людина робила в іншому випадку. Машинне навчання, як функціональна область всередині ШІ, - це коли комп’ютеру поставлена ​​кінцева мета, але йому необхідно самостійно обчислити найкращий маршрут.

Сьогодні ми бачимо, що ці технології - особливо машинне навчання - застосовуються в багатьох сферах маркетингу, включаючи виявлення шахрайства оголошень, прогнозування поведінки споживачів, системи рекомендацій, творчу персоналізацію тощо.


Незважаючи на те, що це все добре і добре, є нова технологія офшотів, яка для маркетологів по-справжньому реалізується на вимогу, яку створює машинне навчання. Це називається "підкріплення навчання" (RL).

Що таке зміцнення?

Перехід від ML до RL - це більше, ніж просто літера. Більшість завдань, що передаються машинному навчанню, включають використання одного кроку, наприклад, "розпізнати це зображення", "зрозуміти вміст книги" або "зловити шахрайство". Для маркетолога така бізнес-мета, як "залучити, утримати та залучати користувачів", - це за своєю суттю багатоступеневий і довгостроковий, який не легко досягти за допомогою машинного навчання.

Ось тут і відбувається навчання з підкріпленням. Алгоритми RL - це оптимізація розгортається і постійно мінливої ​​подорожі - тієї, де виникають динамічні проблеми. Використовуючи математичну «функцію винагороди» для обчислення результатів кожної перестановки, RL може побачити майбутнє і здійснити правильний дзвінок.


Сьогодні найкращі втілення цієї найсучаснішої технології можна побачити в іграх та автомобілях на самому керуванні. Коли минулого року система AlphaGo Google обіграла найкращого гравця настільної гри «Go Go», їх таємний соус підкріпився навчанням. Поки ігри встановлюють правила, варіанти гравця щодо маршруту до перемоги динамічно змінюються залежно від стану дошки. Завдяки навчанню підкріплень система обліковує всі можливі перестановки, які можуть змінюватися залежно від кожного наступного кроку.

Аналогічно автомобіль, що рухається самостійно, їде в подорож, в якій правила дорожнього руху та місце призначення залишаються закріпленими, але змінні по дорозі - від пішоходів до дорожніх блоків до велосипедистів - змінюються динамічно. Ось чому OpenAI, організація, заснована Elon Musk Tesla, використовує вдосконалені алгоритми RL для своїх автомобілів.

Ні помилок, ні стресу - покроковий посібник зі створення програмного забезпечення, що змінює життя, не руйнуючи ваше життя


Ви не можете покращити свої навички програмування, коли ніхто не піклується про якість програмного забезпечення.

Машини для маркетологів

Що означає це для маркетологів?

Основні проблеми багатьох маркетологів створюються тим, що стан бізнесу постійно змінюється. Виграюча стратегія кампанії з часом може стати неприхильною, тоді як стара стратегія може отримати нову тягу. RL - це крок до наслідування справжнього людського інтелекту, де ми вчимося на успіху та / або невдачі численних результатів, і формуємо виграшну стратегію майбутнього. Дозвольте навести кілька прикладів:

1. Покращення взаємодії з користувачами

Давайте зосередимось на залученні клієнтів до мережі ресторанів, а на меті помножити її в десятки разів протягом наступного року. Сьогодні маркетингова кампанія може включати привітання з днем ​​народження зі знижкою, можливо навіть на основі переваг їжі. Це лінійне мислення, де маркетолог визначив початкову та кінцеву точку.

У зайнятому світі життя клієнтів постійно змінюється в режимі реального часу - іноді вони більш зайняті, іноді менше. Під час навчання посиленням система постійно релібрує, які тактики в маркетинговій зброї в будь-який момент мають найкращі шанси рухати одержувача до кінцевої мети 10-кратного залучення.

2. Динамічне розподіл бюджету

Тепер уявіть собі рекламний сценарій, у якому у вас є бюджет на 1 мільйон доларів, і потрібно витрачати їх щодня до кінця місяця, розподілених на чотири різні канали: телебачення, акції лояльності та Google. Як ви можете забезпечити витрачання бюджету найоптимальнішим чином? Відповідь залежить від дня, цільових користувачів, ціни запасів та цілого ряду інших факторів.

При навчанні підкріплення алгоритми використовуватимуть історичні дані результатів оголошень для написання функцій винагороди, які визначають певні рішення щодо витрат. Але він також враховує фактори в реальному часі, такі як ціноутворення та ймовірність позитивного прийому від цільової аудиторії. Завдяки ітеративному навчанню розподіл рекламних витрат протягом місяця динамічно змінюватиметься. Хоча кінцева мета встановлена, RL буде розподіляти бюджет найкращим чином за всіма сценаріями. (Докладніше про AI в галузі маркетингу див. У розділі, як штучний інтелект перетворить промисловість на продаж.)

Незабаром

Навчання зміцнення визнає складність і визнає, що люди неоднорідні і пояснюють ці істини, вдосконалюючи кожну наступну дію з часом, коли частини вашої ігрової дошки змінюються навколо неї.

Навчання в зміцненні все ще значною мірою є резервом науково-дослідних проектів та передових асистентів. Концепція та техніка математики існують вже понад 40 років, але розгортати її не вдалося порівняно недавно, завдяки трьом тенденціям:

  1. Поширення обчислювальної потужності через потужні графічні процесори (GPU).

  2. Хмарні обчислення дають потужність високого класу процесора доступною за частку витрат на придбання самих графічних процесорів, дозволяючи третім сторонам орендувати GPU для навчання своєї RL-моделі на кілька годин, днів або тижнів за відносно вигідною ціною-підвалі.

  3. Вдосконалення або чисельних алгоритмів, або розумної евристики. Кілька критичних числових кроків алгоритму RL тепер можуть зближуватися набагато швидшими темпами. Без цих магічних чисельних хитрощів вони все-таки були б неможливі навіть із найпотужнішими комп’ютерами сьогодні.

Мислення більшого

Все це означає, що нові можливості посилення навчання незабаром будуть доступні в масштабі для брендів і маркетологів. Однак сприйняття цього вимагає змінити мислення. Для менеджера з маркетингу ця технологія означає можливість зняти руки з колеса.

Кожна справа має свою мету, але коли ви опиняєтесь глибоко в окопах, щоденні дії, спрямовані на досягнення цієї мети, можуть стати нечіткими. Тепер технологія RL дозволить особам, які приймають рішення, поставити мету, маючи більше впевненості, що системи зможуть досягти її найкращого курсу.

Наприклад, у рекламі в наші дні багато людей розуміють, що такі показники, як частота кліків (CTR), є лише проксі-сервісами для справжніх результатів бізнесу, які враховуються лише тому, що вони піддаються обліку. Маркетингові системи, орієнтовані на RL, знімуть наголос на таких посередницьких показниках і всім важкому підйомі, який пов'язаний з ними, дозволяючи начальникам зосередитися на цілях.

Це вимагатиме від підприємств думати про свої великі проблеми набагато більш ініціативно і довгостроково. Коли технологія дозріла, вони досягнуть своєї мети.

Шлях до усиновлення

Навчання з посилення ще не готове до повномасштабного використання брендами; однак, маркетологи повинні зайняти час, щоб зрозуміти цю нову концепцію, яка могла б революціонувати спосіб, коли бренди займаються маркетингом, справляючись із деякими ранніми обіцянками машинного навчання.

Коли потужність надійде, вона надійде в маркетингове програмне забезпечення з користувальницьким інтерфейсом, але завдання, необхідні для цього програмного забезпечення, будуть радикально спрощені. Для персоналу буде менше рухомих комутаторів та введення номерів, а також менше зчитування аналітичних звітів та дії на них. За приладовою панеллю алгоритм буде обробляти більшу частину цього.

Навряд чи RL може відповідати людському інтелекту прямо за воротами. Швидкість її розвитку залежатиме від відгуків та пропозицій маркетологів. Ми повинні переконатися, що ми просимо комп’ютер вирішити правильну проблему та штрафувати її, коли цього не відбувається. Звучить, як би ви навчали власну дитину, чи не так?