У свой час ураджэнец Магілёўскай губерніі, амерыканскі пісьменнік-фантаст Айзек Азімаў сфармуляваў тры законы робататэхнікі. Першы з іх гучыць так: «Робат не можа нанесці шкоды чалавеку або сваёй бяздзейнасцю дапусціць, каб чалавеку была нанесена шкода». Пазней, у так званым, «нулявым законе», пісьменнік замяніў «чалавека» на «чалавецтва».
У зборніку апавяданняў «Я, Робат», які прынёс Азімаву сусветную вядомасць, ён паставіў пад сумненне распаўсюджаныя апасенні. Да Азімава ў большасці гісторый пра робатаў гэтыя штучныя істоты бунтавалі або забівалі сваіх стваральнікаў. Робаты Азімава - не механічныя злыдні, што толькі і думаюць, як бы знішчыць чалавечы род, а наадварот - памочнікі людзей. Але, здаецца, і сёння асцярогі адносна робатаў не зніклі. З кожным днём яны толькі павялічваюцца.
Канечне, робат – выдатнае ўвасабленне спрадвечнай мары чалавека: перакласці на кагосьці іншага тое, што даводзіцца рабіць самому. Нават не на кагосьці, а на штосьці. Ідэальна, каб гэта была менавіта неадушаўлёная істота, якая спраўна выконвае ўсе твае загады. Вельмі трапна гэтая мара апісана ў вядомым дзіцячым фільме «Прыгоды Электроніка»: «Позабыты хлопоты, остановлен бег — вкалывают роботы, а не человек».
Аднак, пакуль усеагульная рабатызацыя была фантазіяй пісьменнікаў або справай вучоных-адзіночак, мы не надта задумваліся над гэтай з'явай. Ну так, не хацелася б, каб ЯНЫ захапілі нас. Хацелася б, каб яны «вкалывали», а мы адпачывалі. Але, па вялікім рахунку, ёсць у жыцці і большыя праблемы, чым думаць пра нейкіх робатаў.
І вось паступова сітуацыя змяняецца. Штучных разумных істот вакол становіцца ўсё больш. Што, калі ўжо заўтра робаты пакінуць вас без працы? І гэта ж толькі адно пытанне, якое навідавоку, а такіх пытанняў шмат.
Таму ўсё часцей аналітычныя кампаніі, футуролагі, эканамісты і іншыя разумныя эксперты спрабуюць адгадаць - як рабатызацыя зменіць свет. Дарэчы, калі адказваць на пытанне “каго ж робаты пазбавяць працы?”, то часцей за ўсё называюць вадзіцеляў грузавікоў, банкаўскіх работнікаў, таксістаў і супрацоўнікаў службы дастаўкі. З часам у гэтую кампанію можна будзе дадаць работнікаў прадпрыемстваў, фермераў, юрыстаў і нават урачоў.
Даволі нечакана ў групе рызыкі – і дробныя чыноўнікі. Так, нядаўна адна з даследчых арганізацый падлічыла: 90% дзяржслужачых у Вялікабрытаніі можна замяніць на робатаў, пры гэтым якасць іх працы толькі павялічыцца. Бо праблема ў тым, што многія тысячы людзей займаюцца банальным перакладваннем паперак. Магчыма, 90% і экстрэмальная лічба, але тэндэнцыя зразумелая.
Так што ў гэтым сэнсе славутая глабалізацыя ставіць чалавека ў нявыгадныя ўмовы. І тут вось яшчэ ў чым праблема. Калі з’явіліся першыя аўтамабілі, было прыкладна зразумела, што кучары стануць вадзіцелямі. А конюхі – аўтамеханікамі. Гэта калі так груба абагульніць.
А якія прафесіі з'явяцца пасля таго, як на вуліцах будзе ўсё больш беспілотных аўто? Або дамы будуць узводзіць выключна з дапамогай 3D-прынтараў? Замест будаўнікоў - 3D-друкары? Пакуль дакладна ніхто не скажа.
Дарэчы, ёсць чаго баяцца і нам, журналістам. Зусім нядаўна розгалас атрымала навіна пра робата-журналіста, створанага кітайскімі спецыялістамі. Ён апублікаваў у газеце свой першы матэрыял. У яго нават імя ёсць - Сяо Нань. Для таго, каб напісаць артыкул на 300 іерогліфаў гэтай цуда-машыне спатрэбілася… секунда. Адна няшчасная секунда! І ніякіх творчых перакураў, каб прыйшло натхненне. Распрацоўшчыкі робата дадаюць: ён не толькі піша тэксты хутчэй, чым звычайныя журналісты, але і даныя аналізуе значна лепш. І каб зусім не дабіваць маіх калег, спецыялісты прызнаюць: поўнасцю жывых "акул пяра" робат-карэспандэнт не заменіць. Ён, напрыклад, не ўмее весці інтэрв'ю ў фармаце сам-насам. Але нешта мне здаецца, усё гэта часова. Навучыцца.
Праўда, тут ёсць чаго апасацца не толькі нам, журналістам, маўляў, без працы нас пакідаюць. Але і вам – слухачам, чытачам, карыстальнікам інфармацыі. Гэтую праблему называюць робаэтыкай. Этыкай самакіруемых машын. Ігнараванне этычных стандартаў пагражае інфармацыйнай бяспецы людзей.
Самы просты прыклад: Гітлер для робата-журналіста гэта не жудасная асоба. Гэта проста набор сімвалаў. Расізм, прапаганда наркотыкаў або суіцыдаў – разумныя машыны не ўбачаць у гэтым нічога дрэннага. Калі такога не бачаць тыя, хто іх стварыў. Робаты сёння як дзеці – чаму іх навучаць дарослыя, тое яны і будуць рэтрансліраваць. І нават так: можа не быць ніякага злога намеру стваральнікаў, можа адбыцца проста выпадковы тэхнічны збой.
Каб вы зразумелі, гэта ўсё не проста голыя разважанні тых, хто супраць прагрэсу. Ёсць ужо красамоўныя прыклады. Так, мінулай вясной кампанія Майкрасофт запусціла так званага чат-бота – праграму, якая з дапамогай «штучнага інтэлекту» вядзе дыялогі з людзьмі ў сацыяльных сетках. Спачатку гэты бот па імені Тэй навучыўся прызнавацца сваім падпісчыкам у прыязнаснасці да нацызму. Кампанія тэрмінова адключыла яго, дапрацавала і вярнула ў Твітэр. Вярнуўся робат у цудоўнай форме – ён тут жа пачаў прапагандаваць наркотыкі. Цяпер Майкрасофт вучыць гэтага Тэя не весціся на правакацыі карыстальнікаў інтэрнэту. Але, шчыра кажучы, няхай бы такі бот увогуле не вяртаўся!
Як пішуць некаторыя аглядальнікі, жудасна становіцца і ад такой думкі: робата ў нейкім фізічным целе мы можам, умоўна кажучы, адправіць пад прэс або расплавіць (як таго Тэрмінатара, памятаеце?). А што зрабіць з робатам у выглядзе штучнага інтэлекту, калі ён раптам звар'яцеў? Яго ж нават рукамі не возьмеш! Невыпадкова больш за тысячу вядомых вучоных і бізнесменаў, сярод якіх Стывен Хокінг і Ілан Маск, раней падпісалі ліст з заклікам – не даць робатам са штучным інтэлектам ператварыцца ў машын-забойцаў.
Канечне, у эпоху інфармацыйных войнаў для многіх можа быць вялікай спакусай скарыстацца на медыйным полі бітвы робатамі. Машынамі без маральных абмежаванняў, якія можна навучыць найлепшым псіхалагічным прыёмам, узброіць такімі ведамі, якія ніколі не запомніць і не ўзгадае за секунду жывы чалавек. Але гэтую вайну вельмі хутка можа прайграць усё чалавецтва.
Як тут не ўзгадаць першы закон робататэхнікі, сфармуляваны нашым земляком Айзекам Азімавым, і зразумець: адзіны, хто можа нанесці шкоду чалавеку, гэта сам чалавек.