Изкуственият интелект: 6 кошмарни сценария

05 April 2023
Иван Бутовски

Най-големи са рисковете от злоупотреба с новите технологии

Наред с неоценимите ползи изкуственият интелект притежава и много опасен потенциал, който може да се отрази катастрофално на цялото човечество. Един от ключовите рискове е свързан със социалната манипулация. Интернет медиите чрез своите автономни алгоритми са много ефективни при целевия маркетинг. Те знаят кои сме, какво харесваме и са невероятно добри в предположенията какво мислим. 

Вече свикнахме и с разследванията дали те са повлияли примерно на резултата от президентските избори в САЩ, или референдума за Брекзит в Обединеното кралство. Проблемът е, че чрез разпространение на пропаганда до лица, идентифицирани чрез алгоритми и лични данни, AI може да налага всякаква информация, независимо дали става дума за факт, или измислица. На всичкото отгоре технологията улеснява замяната на изображението на една фигура с друга в снимка или видео. По този начин новините ще стават още по-мрачни в светлината на дълбоките фалшификати, проникващи в политиката и социалната сфера. 

В резултат авторитарните режими също имат неограничена

възможност за споделяне на дезинформация

и военна пропаганда, създавайки кошмарен сценарий, при който може да бъде почти невъзможно да се направи разлика между достоверни и погрешни съобщения. 

Така например TikTok работи с алгоритъм, който насища емисията към потребителя със съдържание, свързано с предишно съдържание, което е гледано на платформата. Критиките към приложението са насочени към този процес и неуспеха на алгоритъма да филтрира вредно и неточно съдържание, което поражда съмнения относно способността на TikTok да защитава своите потребители от опасни и подвеждащи новини.  Наскоро този страх се превърна в реалност, тъй като политиците разчитат на платформи за популяризиране на своите гледни точки. Съвсем пресен пример е Фердинанд Маркос-младши във Филипините, който управляваше цяла армия от тролове на TikTok, за да грабне гласовете на по-младите филипинци по време на изборите през 2022 г.

В тази връзка не по-малък риск представлява и нахлуването в личното пространство на хората. Вече е възможно да се проследява и анализира всеки ход на даден човек не само онлайн, а дори и в ежедневието. Камерите са почти навсякъде, а алгоритмите за лицево разпознаване знаят кой сте. 

Всъщност точно този тип информация ще захрани китайската социална кредитна система, която се очаква да даде на всеки един от 1,4 млрд. граждани лична оценка въз основа на поведението му. Това включва информация например дали се придвижва пеша, пуши ли в зони за непушачи и колко време прекарва зает с видеоигри. А когато “Големият брат” наблюдава и след това взема решения въз основа на тази информация, това не е само нахлуване в личния живот, но може бързо да се превърне в социално потисничество. Но една от най-преките заплахи е създаването на автономни оръжия, програмирани да убиват. Вече е съвсем правдоподобно да се очаква, че надпреварата в ядрените оръжия ще бъде заменена от глобална надпревара точно в тази област. В тази връзка не друг, а руският президент Владимир Путин заяви, че: “Изкуственият интелект е бъдещето не само за Русия, но и за цялото човечество. Той идва с огромни възможности, но също така и със заплахи, които са трудни за прогнозиране. Който стане лидер в тази сфера, ще стане владетел на света”.

Освен загрижеността, че автономните оръжия могат да придобият “собствен ум”, по-непосредствена загриженост са опасностите, които те могат да представляват при лидер или правителство,

които не ценят човешкия живот

Освен това, веднъж разгърнати, те вероятно ще бъдат трудни за унищожаване. Много от тези нови оръжия и в момента са заплаха за живота на Земята, но опасността се засилва още повече, когато автономните оръжия попаднат в неподходящи ръце. Така ще стане възможно някой злонамерен хакер да проникне в подобна система и да предизвика абсолютен апокалипсис.  

Често срещан мит е, че тъй като изкуственият интелект е компютърна система, той по своята същност е безпристрастен. Това обаче е крещящо невярно. Всъщност той е толкова безпристрастен, колкото и хората, създаващи програмите. Така че, ако изкуственият интелект е създаден с помощта на изкривени данни за обучение, той може да взема пристрастни решения. По този начин, да речем, моделите, използвани в здравеопазването, могат да причинят погрешни диагнози. А ако изкуственият интелект отговаря за осигуряването на работата на електрическата мрежа и системата се повреди или бъде хакната, това може да доведе до огромни щети. Част от това, което хората ценят в машините, задвижвани от AI, е тяхната ефективност. Но ако не сме наясно с целите, които си поставяме за интелигентните устройства, те могат да предизвикат непредсказуем ефект. Например команда “Закарай ме до летището възможно най-бързо” може да има тежки последици. Без да уточняваме, че правилата за движение трябва да се спазват, защото ценим човешкия живот, една машина може доста ефективно да изпълни целта си да ви отведе до летището възможно най-бързо, но да остави след себе си ужасяващи катастрофи. А в такива случаи трябва да има и вина. Така например през 2018 г. самоуправляваща се кола, използвана от компанията за споделено пътуване Uber,

блъсна и уби пешеходец при пътен инцидент

В този конкретен случай съдът постанови, че резервният шофьор на самоуправляващата се кола е виновен, тъй като е гледал шоу на телефона си, вместо да обръща внимание на заобикалящата среда.

Реална опасност има и за финансовата стабилност. Въпреки че алгоритмите на изкуствения интелект не са замъглени от човешка преценка или емоции, те също така не вземат предвид контекста, взаимосвързаността на пазарите и фактори като човешкото доверие и страх.  Те могат да извършват хиляди сделки с невероятно темпо. Извършването на хиляди сделки за секунди обаче може да изплаши инвеститорите да направят същото, което да доведе до внезапни сривове и изключителна нестабилност на пазара.

Освен това, тъй като машините могат да знаят толкова много за хората, много е възможно

да използват тази информация срещу тях

Не е трудно да си представим застрахователна компания да ви каже, че не може да ви застрахова въз основа на броя пъти, когато сте били уловен от камерата да говорите по телефона си. А работодателят може да откаже предложение за работа въз основа на вашия “социален кредитен рейтинг”. Разбира се, истината е, че с всяка нова технология може да се злоупотреби. И в наши дни изкуственият интелект се използва за много добри каузи, включително да ни помогне да правим по-добри медицински диагнози, да намерим нови начини за лечение и да направим живота си по-безопасен. 

Очакванията са дори да предостави и мощни средства за изкореняването на болестите и бедността. За съжаление, с разширяването на възможностите му сигурно ще видим, че той може да се използва за опасни или злонамерени цели. Състраданието и добротата са присъщи човешки черти, но не могат да бъдат програмирани дори в най-добрия AI. 

Ключови думи

Коментари

Няма коментари. Бъдете първия с коментар по темата.
Остави коментар:

Име:

Eл. поща:

Коментар:* (макс. 1000 знака)




Забранява се възпроизвеждането изцяло или отчасти на материали и публикации, без предварително съгласие на редакцията; чл.24 ал.1 т.5 от ЗАвПСП не се прилага; неразрешеното ползване е свързано със заплащане на компенсация от ползвателя за нарушено авторско право, чийто размер ще се определи от редакцията.

Съвет за електронни медии: Адрес: гр. София, бул. "Шипченски проход" 69, Тел: 02/ 9708810, E-mail: office@cem.bg, https://www.cem.bg/