Професійна небезпека: падіння автоматики

Автор: Roger Morrison
Дата Створення: 28 Вересень 2021
Дата Оновлення: 21 Червень 2024
Anonim
Игорь Новиков / SingularityU Kyiv / Интервью
Відеоролик: Игорь Новиков / SingularityU Kyiv / Интервью

Зміст


Джерело: Artinspiring / Dreamstime.com

Винос:

Для того, щоб автоматизація працювала з людством, а не проти людини, нам потрібні гарантії та поінформовані люди, уповноважені зупинити чи виправити системну помилку.

«Помилятися - це людина; Вільям Е. Вуган зробив це спостереження ще в 1969 році. Надання контролю над автоматизованою системою може призвести до того, що система може зійти з розуму і завдати серйозної шкоди до її перевірки.

Автоматизація не нова, але вона набуває набагато більшого поширення завдяки інтеграції цифрових та фізичних систем. Перевага автоматизації в масштабах - це велика ефективність. Але недоліком покладатися на систему "встановити і забути" є те, що хтось може не встановити її належним чином.

З системою, яка простежується без втручання та жодного способу зупинки машини, ви можете мати руйнівні наслідки. Відповідно, техніка може створити тип ситуації, зображену в «Учневі чаклуна», коли те, що, як видається, полегшує життя, насправді виходить з-під контролю.


Звільнений автоматом

Автоматизація без втручання - це те, що минулого року технік у Великобританії опинився без роботи без жодної причини. Ібрагім Діалло зауважив, що його картки для забезпечення безпеки не працюють на роботі, і виявив, що це було через те, що він без роботи. «Машина мене звільнила» - це назва, яку він дав своєму розширеному посту в блозі про подію.

Зрештою, причиною припинення Діалло була не якась оцінка алгоритму, яка визначала, кого слід усунути. Проблема була не в системі, а була однією з помилок людини. У цьому випадку це була вся автоматизована відповідь на неспроможність людини вносити інформацію про поновлення контракту Діалло.

Справа не в тому, що машина вирішила його звільнити за щось зокрема. Він просто здійснив кроки, запрограмовані в ньому для того, чий статус виявився вже не зайнятим. Як він уточнює в коментарях, це насправді не AI, а «автоматизований сценарій». (Щоб дізнатися про те, як AI може допомогти (а не нашкодити) у бізнесі, ознайомтеся з тим, що AI може зробити для підприємства.)


Автоматизація та порушення роботи

Цей ефект не є саме тим, що люди передбачають, описуючи чудові переваги, які ми можемо передбачити в автоматизованому майбутньому. Звичайний оптимістичний прогноз зміни робочих місць, оскільки завдання приймаються за допомогою автоматизації, завдання будуть перероблені - не припиняються автоматизованими системами. Але реальність полягає в тому, що деякі робочі місця будуть ліквідовані, і люди, які їх займали, не обов'язково зможуть здійснити плавний перехід до нової кар'єри в значною мірою автоматизованою галуззю.

Перебої в роботі - один з найменших ризиків, який передбачав Елон Маск для зростання ШІ, хоча його власне бачення впливу на робочі місця набагато песимістичніше, ніж Фіцджеральд. На думку Муска, AI потребує суворої регламентації, оскільки це становить "фундаментальний, екзистенційний ризик для людської цивілізації".

Ні помилок, ні стресу - покроковий посібник зі створення програмного забезпечення, що змінює життя, не руйнуючи ваше життя

Ви не можете покращити свої навички програмування, коли ніхто не піклується про якість програмного забезпечення.

Заявки від побутової електроніки

Незважаючи на власні технічні дані Маска, деякі експерти в цій галузі, як Родні Брукс, який був засновником директора лабораторії з інформатики та штучного інтелекту MIT і співпрацювали як з iRobot, так і з Rethink Robotics, кажуть, що Моск помиляється з приводу загрози AI та як робототехніки насправді діють.

В інтерв'ю "TechCrunch" Брукс зазначив, що нерозумно вимагати норм, не визрівши технологію до того моменту, коли ми можемо точно визначити, що потрібно регулювати. Він кинув виклик Маск: - Скажи, яку поведінку ти хочеш змінити, Елон?

Брукс визнав, що роботи призведуть до переміщення робочих місць. Але він також вважає, що можна змінити парадигму в галузі у відповідності до побутової електроніки.

Як він висловився в інтерв'ю TechCrunch: "У нас є традиція у виробництві обладнання, яке має жахливі користувальницькі інтерфейси, і це важко, і вам потрібно пройти курси, тоді як у побутовій електроніці ми зробили машини, якими ми користуємось, навчаємо людей" як ними користуватися. "

Саме це, за його словами, повинно бути метою змінити спосіб відношення до «промислового обладнання та інших видів обладнання, щоб машини навчили людей користуватися ними».

Відновлення контролю

Те, що пропонує Брукс, може вказувати нам на вирішення проблеми людської помилки, яка заважає автоматизованому процесу, який, здається, виходить з-під контролю. Посилаючись на помилку Міккі в «Учневі чаклуна», проблема випливає з того, хто активує систему, але не має реального способу спілкування з нею, щоб змусити її зупинити чи змінити напрямок.

Але якщо інтерфейс буде зроблений за лінією побутової електроніки, а не традиційних промислових моделей, він може буквально повернути контроль в людські руки. Щоб по-справжньому бути ефективним, інтерфейс повинен бути не просто доступним, а розроблений для того, щоб утримати людей у ​​циклі про те, що відбувається, надаючи дані про оновлення, які він отримав, та про дії, які він вжив.

Як це могло працювати

У випадку випадкового припинення Діалло це означатиме, що автоматизована система не просто заблокує його з системи, а потім надасть рекрутеру його, що його припинили. Спершу слід визнати, що подовження контракту не було укладено у передбачувану дату. Перш ніж розпочати дії щодо припинення, він запропонує менеджерам та рекрутеру оновити інформацію про відсутність оновлення та наслідки, які настануть протягом дня, якщо не буде вжито жодних дій.

Таке сповіщення дозволило б людям приймати обґрунтовані рішення про те, чи слід пускати автоматику чи втручатися, щоб виправити людську помилку, яка була первісною причиною проблеми. Але люди також повинні виконувати свою роль, реагувати на попередження та вживати належних заходів. Іншими словами, відповідь на питання, яке поставив Брукс щодо поведінки, стосується людей; вони повинні бути менш пасивними в умовах автоматизації. (Докладніше про те, як люди та машини можуть співпрацювати, див. "Навчання людського елементу: політика, процедура та процес".)

Як писав Діалло в розділі коментарів свого блогу, причиною цього вдалося дійти до того, що це було, це те, що люди відмовилися йти проти машини:

Ще одна річ, яка не помічається, це те, що, хоча всі знали, що це викликає помилку людини, і що це була чисто помилка, вони вирішили слідувати s. Це як би поставити знак "дозволено палити" в лікарні, і люди поважають знак, а не здоровий глузд.

Відповідно, політику, яку нам потрібно прийняти для того, щоб автоматизація працювала з людьми, а не проти людства, була двоякою: з боку машини нам потрібні доступні та інформативні інтерфейси, а з людської сторони - нам потрібні люди уповноважений визначати, коли щось не так, і вступити, щоб виправити це.