Обявиха за мъртви законите на роботиката на Айзък Азимов

Робо-човешкото общество ще се нуждае от съвсем различна регулация, твърдят учени

Айзък Азимов, компютърен колаж. Снимка: Уикипедия

През 1942 г. в разказа си Runaround Айзък Азимов формулира прочутите три закона на роботиката. Доста хора не знаят, че в една по-късна своя творба той добавя към тях още един. По този начин четирите закона на роботиката добиват следния вид:

Закон 0: Един робот не трябва да причинява вреда на човечеството или чрез бездействие да причини вреда на човечеството.

Закон 1: Един робот не трябва да причинява вреда на човешко същество или чрез бездействие да причини вреда на човешко същество, освен ако това не нарушава по-висш закон.

Закон 2: Роботът трябва да се подчинява на заповедите, които получава от човешките същества, освен ако те не противоречат на по-висш закон.

Закон 3: Роботът трябва да защитава собственото си съществуване стига тази защита да не е в противоречие с по-висш закон.

Преди месец обаче, Чиен Хсун Чен от Националния университет Чао Тунг в Тайван, в съавторство с други учени издигна в статия в International Journal of Social Robotics тезата, че тези закони вече не само са остарели, но са твърде наивни, за да служат на стремително развиващата се роботика. Нещо повече, авторите твърдят, че законите на Азимов никога не ще могат да служат като база за създаването на морални норми, които да решат въпросите на сигурността, свързани с изкуствения интелект.

Общество, в което хора и роботи ще трябва да същестуват съвместно вероятно ще се появи около 2030 г., твърди Чен и повдига въпроса, че това налага въвеждането на една нова “робо-етика”, което пък предизвика бурна дискусия в световните научни среди. Дори и сега в САЩ три милиона домакинства ползват домакински роботи за почистване, които да доста автономни, но не са достатъчно сложни, за да представляват интерес. Интерес представлява следващото поколение роботи, вече разработено, което ще предлага услуги като охрана, къщна работа, преподавателска дейност и дори грижи за болни (виж повече тук).

“Ако създавате изкуствен интелект, но не мислите върху неговите морални възприятия или създавате съзнателно чувство за вина при извършване на дадено действие, то тогава технически погледнато вие създавате психопат”, твърди пред сп. Wired Джош Хол, автор на книгата “Отвъд изкуствения интелект: Създавайки съзнанието на една машина”.

Именно затова специалистите по роботика вече говорят не само за създаването на набор от етични правила за роботи, но и как един робот може да бъде наказан, кой да бъде регулатор на тези правила и дори за създаването на “легален машинен език”. Най-малкото някой все пак трябва да поема отговорност за действията на роботите, твърди младото поколение в роботиката.

Роботите от следващо поколение ще могат да вземат независими решения и да изпълняват дейности без нужда от надзор, затова е време да се реши кой регулира роботите, казва Чен в статията си. Правилата в това ново робо-човешко общество ще трябва да регулират начините, по които хората общуват с роботите, както и поведението на самите роботи.

В момента създателят на една машина носи отговорност за нейните действия, но какво се случва в момента, когато на сцената се появят машини, които могат сами да вземат решения. И тогава идва немислимият доскоро въпрос: кой е отговорен за действията на една машина – нейният създател или самата машина. Или пък въпросът за човешкото отношение към роботите – например няма да повредите едно куче-робот , ако го ритнете, но това би могло да стане, ако ритнете истинско куче. А как ще обясните на децата си разликата между двете, ако на пръв поглед кучето-робото и живото куче са неразличими.

Именно затова Чен и неговите колеги предлагат роботите от следващо поколение да бъдат определени като същества от “трето битие”. Те не са нито живи/биологични, което е “първото битие”, нито неживи/небиологични, което е “второ битие”. Дефиницията на “трето битие”, казва, че машините ще изглеждат и ще се държат като живи същества, но няма да имат самосъзнание. Проблемът с нюансите в разбирането на човешкия език пък ще се реши отново с въвеждането на “легален машинен език”, с помощта , на който да се запази разделителната линия между хора и роботи – един проблем, на който законите на Азимов не могат да предложат решение.

“Рамката на легалния машинен език се основава на инжинерния и законов подход към проблемите на сигурността, комбинирайки две основни идеи: “Програмата е Закон” и “Вградена етика”, пише Чен. И добавя че проблемът с това дали роботите ще могат да разбират човешката реч и емоции е ключов, защото именно там минава границата между човек и машина. Едно от най-големите предизвикателства на идната епоха ще бъде запазването на баланса в отношенията между хора и роботи и създаването на законова рамка за регулиране на отношенията между тях.

Което обаче може да се окаже непосилна задача от гледна точка на морала и етиката. Най-малкото защото самотото човечество от хилядолетия насам се опитва да формулира кое е морално и етично за самото него и все още не е постигнало резултати по-задоволителни от идеята за спазването на десетте Божи заповеди.

Здраве, Наука & Tex
Коментарите под статиите са спрени от 2014 г., заради противоречиви решения на Европейския съд, който в един случай присъди отговорност за тях на стопаните на сайта, после излезе с противоположно становище. В e-vestnik.bg нямаме капацитет да следим и коментари на читатели. Обект сме на съдебни претенции заради статии, имали сме по няколко дела с искове за по 50-100 хил. лева. Заради което приемаме дарения за сайта (виж тук повече), чиито единствени приходи са от рекламни банери.