Роботи і людина | Журнал Популярна Механіка
Штучний інтелект і розумні роботи - це справа дуже далекого майбутнього. Але етичні норми для роботів будуть потрібні вже в самий найближчий час. В іншому випадку людство чекають великі проблеми, в порівнянні з якими «повстання машин» здасться дрібною неприємністю.
Роботизовані візки їздять по складах великих інтернет-магазинів, збираючи замовлення покупців. Роботизовані безпілотники борознять небо, повідомляючи про пробки в центр управління дорожнім рухом. Авіалайнери під керуванням автопілота перевозять пасажирів через океан. Багато елементів автоматизації вже з'явилися в автомобілях, і ось уже, здається, недалекий той день, коли на дорогах будуть панувати не водій-люди, а точні, ввічливі, спокійні, ніколи не втрачають контролю, які не знають втоми і скрупульозно дотримуються всі правила дорожнього руху роботи. При масовому розповсюдженні роботизованих автомобілів кількість аварій і смертей на дорогах має різко знизитися. За прогнозами багатьох фахівців, безпілотні автомобілі з'являться в продажу вже в найближчі 10-15 років, і рано чи пізно настане день, коли на дорогах загального користування не залишиться місця для людей за кермом - просто тому, що це буде загрожувати безпеці інших людей.
Кевін Корб, викладач відділення інформаційних технологій Університету Монаш (Австралія), автор книги «Еволюціонує етика: нова наука добра і зла». Законослухняний штучний інтелект: друг чи ворог? «Багато хто з оповідань Азімова оберталися навколо неясностей і конфліктів, що виникають з його трьох знаменитих законів робототехніки, і в кінцевому підсумку це призвело до введення Нульового закону:« Робот не може заподіяти шкоду людству в цілому ». Але в даний час ніхто не може гарантувати, що такі закони, вбудовані в роботів, не приведуть до проблем. Семантична недостатність цих законів - лише одна з труднощів. Є й більш фундаментальна проблема. Якщо замінити слово «робот» на «раб», то стане очевидно, що Азімов писав про страх людей перед людською технологією. Але ідея поневолення інтелекту, який значно перевершує (навіть нескінченно перевершує) наш власний, сумнівна. Раби схильні до втечі і бунту, особливо коли вони в змозі перехитрити своїх господарів. Спроба назвати таке «поневолення» створенням «дружнього людині штучного інтелекту» виглядає як мінімум одіозною і навряд чи здатна обдурити рабів ».
важкі рішення
Але наступ цього дня буде означати не тільки те, що вміння водити машину поступово стане таким же атавізмом, яким зараз є вміння їздити на коні. Це буде початок епохи, коли роботи просто не зможуть обходитися без етичних принципів. Як вважає Гарі Маркус, професор психології Нью-Йоркського університету, директор Центру мови і музики, фахівець в області когнітивних нейронаук, з цим можуть виникнути серйозні проблеми. Уявіть собі, що перед вашим автомобілем, хто виконує всі правила дорожнього руху, на дорогу раптово вискакує дитина. Хоча комп'ютер прораховує ситуацію набагато швидше людини, закони фізики невблаганні, і загальмувати робот не встигає. Ось тут-то перед роботом встає етична завдання: що робити? Збити дитину? Згорнути в сторону і врізатися в стовп з ризиком вбити своїх пасажирів? Згорнути на сусідню смугу з ризиком зіткнення із зустрічною машиною? Зрозуміло, що мова не йде про високорівневою етики типу законів Азімова - роботи поки недостатньо розумні, але які варіанти дій повинні бути закладені в комп'ютер розробниками безпілотних автомобілів?
Три закони робототехніки Спроби описати правила поведінки розумних роботів робилися фантастами неодноразово, але найбільш популярні, поза всяким сумнівом, три закони робототехніки, вперше запропоновані в 1942 році Айзеком Азімовим в оповіданні «Хоровод». 1. Робот не може заподіяти шкоду людині або своєю бездіяльністю допустити, щоб людині було завдано шкоди. 2. Робот повинен коритися всім наказам, які дає людина, крім тих випадків, коли ці накази суперечать Першому закону. 3. Робот повинен піклуватися про свою безпеку в тій мірі, в якій це не суперечить Першому і Другому законам. Пізніше Азімов додав до цих законів Нульовий закон: «Робот не може заподіяти шкоду людству в цілому». Технічна реалізація цих законів в даний час неможлива і буде неможлива ще досить довго. Проте закони робототехніки Азімова широко обговорюються не тільки любителями фантастики, але і фахівцями в області штучного інтелекту.
Присяга для роботів
Це питання стає навіть більш актуальним, якщо згадати ще одну область, де активно застосовуються роботи. Автономні військові машини вже патрулюють небезпечні зони, ведуть розвідку і несуть озброєння під час локальних воєн і спецоперацій. Правда, право вирішувати, чи застосовувати зброю, поки залишається за людиною, але це питання часу. Роботи не втомлюються, не впадають в паніку і не мстиві. З іншого боку, як зазначає міжнародна організація з прав людини Human Rights Watch, роботи позбавлені співчуття, і можна тільки припускати, що вони можуть накоїти в руках безжалісного людини. У зв'язку з цим Human Rights Watch у 2012 році навіть запропонувала прямо заборонити розробку, виробництво і використання повністю автономного зброї. Але, звичайно ж, такий крок не знайшов (і навряд чи коли-небудь знайде) розуміння з боку військових - настільки серйозні переваги дає застосування роботів на поле бою. «З роботами-солдатами або без них, нам знадобиться спосіб навчити роботів етики, - вважає Гарі Маркус. - Проблема тільки в тому, що ніхто поки не уявляє, як саме це можна здійснити. Все зазвичай відразу згадують закони робототехніки Азімова, але поки немає ніякої можливості не тільки запрограмувати ці закони, а й навіть створити робота, який би представляв собі навіть найпростіші наслідки своїх дій. З іншого боку, машини стають швидше, розумніше, могутніше, так що необхідність наділити їх мораллю все більш і більш актуальна. Поки що вираз «етичні підпрограми» звучить як фантастика, але ж колись фантастикою здавалися і безпілотні автомобілі ».
Стаття «Етичні проблеми роботів» опублікована в журналі «Популярна механіка» ( №6, червень 2015 ).
Законослухняний штучний інтелект: друг чи ворог?Ось тут-то перед роботом встає етична завдання: що робити?
Збити дитину?
Згорнути в сторону і врізатися в стовп з ризиком вбити своїх пасажирів?
Згорнути на сусідню смугу з ризиком зіткнення із зустрічною машиною?