„51% от изследователите на И.И. вярват, че има 10% шанс хората да изчезнат като вид поради неспособността ни да контролираме И.И. Бихте ли се качили на самолет със същия шанс самолета да убие всички пътници?“
https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/
Кои са Ейза и Тристан?
Ейза Раскин и Тристан Харис са едни от основателите на Центъра за хуманни технологии (Center of Humane Technology). Това е НПО, което дава гласност на вредите от технологичното развитие върху човечеството. Целта им е да изобличат коренните причини за технологичните двигатели, които управляват нашите мисли, поведение, действия, решения, начин на живот. Със своя фокус върху хората и човешкото, използват свят опит в технологичния корпоративен свят, за да аналзират и разберат механизмите, по които технологиите са все по-атрактивни, все повече ни пристрастяват и ни правят все по-малко хора.
Ейза Раскин е син на Джеф Раскин, който стартира проектът Макинтош през 1979г. Неговата е известна фраза „Свободата на словото не е свобода на обсега“, и се има предвид отговорността, която носят публичните личности за думите си в социалните мрежи. Ейза дори е създател на „безкрайния скрол“, който вече е основна част от социалните мрежи. Тристан Харис е създател на Apture, старт-ъп купен от Google на по-късен етап. Там той работи като дизайн етик. ЗА времето си в Google той създава презентация, дълга 142 страни, с името „Призив за намаляване на разсейването и зачитане на вниманието на потребителите“. В нея той говори огромната отговорност, която технологичните гиганти носят спрямо хората и това човечеството да не прекарва дни, заровено в телефона си. Презентацията предизвиква огромен интерес, но кратък и Тристан осъзнава, че има нужда да адресира проблема в своя собствена организация. Така през 2015г. се ражда Центъра за хуманни технологии.
Както виждате, Ейза и Тристан идват от корпоративните технологични среди. Фокусът на действията им е изцяло ориентиран върху ролята на технологиите в здравословното развитие на човека и модерното общество. В документалния филм на Нетфликс „Социалната дилема“ обясняват как се случва изграждането на психологически спусъци, с които да се деформира човешкото поведение и психика с цел предвидимост и монетизация. През м. Март решават да направят публична презентация A.I. Dilemma с хора от технологичния сектор, в която да представят и обсъдят катастрофалните рискове, които се крият в „състезанието за внимание и влияние върху обществото“ от страна на технологичните гиганти. В цитатите, които съм извадила от тяхната презентация, изразяват своите дълбоки опасения за вредите, които A.I. (Изкуственият Интелект) може и би имал върху цялото човечество, ако не бъде регулирано по по-адекватен начин.

„Трудно можем да осмислим и осъзнаем колко трансформиращо ще е за обществото.“
„Не казваме, че няма невероятни плюсове. Тук сме, за да оформим отговорността и това как е необходимо тя да изглежда. Защото ако рисковете на И.И. се реализират, те ще бъдат много по-грандиозни отколкото всички плюсове взето заедно.“
Пускаме нова технология, но правим ли го достатъчно отговорно?
3те правила на технологиите:
- Когато създадеш нова технология, ти създаваш и нов клас отговорности с нея. И те невинаги са толкова очевидни. (напр. Нуждата от регулиране на личните данни дойде едва след като с голяма част от тях имаше и все още има злоупотреби)
- Ако тази нова технология дава власт, то тя автоматично ще стартира технологично състезание.
- Ако не се регулира навреме, състезанието ще има трагичен край.

При първия ни контакт с ИИ, всичко звучеше прекрасно:
- Светът ще е свързан
- Ще може да споделяте общи неща
- Ще може да се свържете с някого на другия край на света.
- Ще имате свобода на словото!

И макар тези неща да се случиха, се случиха и много други, които се оказват пагубни за обществото ни. Парадигмата бе: Даване на гласност на всички хора!, но зад това привидно приятелство лице стоят други проблеми. Например:
- Информационно претоварване
- Поляризация на обществото
- Пристрастяване
- Инфлуенс културата
- Сексуализиране на децата
- Намален диапазон на внимание
- Deep Fake
- Фабрики за култове
- Фалшиви новини
- Разпад на демокрацията
- Цензура срещу свобода на словото
Никой не е имал намерението да се случат тези неща, но се случиха. Също така никой не можеше да предвиди появата и мащаба на тези неща. Но те се случиха.
Самата персонализация на съдържанието, колкото и гениална да е, е начин за създаване на микро култове.
При първия контакт с ИИ ние загубихме, нито един от горепосочените проблеми не е разрешен към днешна дата.
Ако хубавите неща са истина, пропускаме по-дълбоката парадигма. Поглед в дълбочина за основния мотив на всички тези проблеми ни дава един единствен отговор:
СЪСТЕЗАНИЕТО ЗА ВНИМАНИЕ
СЪСТЕЗАНИЕТО ЗА ВНИМАНИЕ (Състезание към дъното на мозъчния ствол): Големите компании са в постоянно състезание за нашето внимание (т. нар. Engagement monster). Това чудовище има много пипала и решаването на отделните проблеми няма да помогне, нужно е разрешение в корена на нещата. Максимизирането на ангажираността пренаписа правилата в обществото и начина, по който работят мозъчните връзки. Взе елементите от обществото ни за заложници. Детското внимание вече е заложник, политиката, ценностите, медиите. Всички тези елементи на обществото са заложници на Състезанието за внимание. Това е същината на Икономиката на Ангажираността.
Преди да се впуснем в дълбоките води на втория контакт с ИИ, си отговорете на въпрос – разрешихме ли проблемите, които създаде първия контакт?
(Tristan Harris: https://www.youtube.com/watch?v=xoVJKj8lcNQ)
Втори контакт на ИИ: Ще ни даде скорост, ще пишем код по-бързо, ще решава медицински загадки, ще реши проблемите с климата. Всичко това звучи като истински идеализъм. Но ако се замислим за проблемите, които може да създаде:
- Колапс на реалността
- Всичко ще може да се фалшифицира
- Колапс на доверието
- Изнудване
- Автоматизирани кибероръжия
- Биологична автоматизация
- Грандиозни измами
- Синтетични връзки вместо човешки
- Автоматизирани фалшиви религии
Всичко това са само част от рисковете.
Преди 2017г. ИИ беше различен. Използваше различни сфери и беше разделен. През 2017г. всички сфери бяха комбинирани и унифицирани в един общ език. И така музиката, изкуството, текстът, кодът, ДНК, видео, биометрични данни и всяка информация, излизащата от хората, се превърна в един език. ИИ третира всичко като един език, затова и развитието му е експоненциално. Всяко парченце информация, което излиза от човек, допринася за развитието на ИИ. В основата си сме променили мотора на ИИ, но все още ползваме същия термин за определянето му, което създава илюзорна представа за липса на рискове.
ИИ може дори да декодира мисълта на човек, въз основа на движението на кръвта в мозъка му с 52% точност. Но ние нямаме закон, с който да защитаваме мислите си, защото до този момент не ни се е налагало да го правим. ИИ може да създаде картина на човек единствено въз основа на информация от рутера в една стая.
2023г. е годината, в която защитата на всички институции пада. ЧатБот може да събере информация за всяка една система и да я направи публична. Институциите не са подготвени за подобен удар. Те дори не са се замисляли за нещо подобно, ние не сме се замисляли. Стигаме момент, в който докато говориш по телефона, не знаеш на кого говориш, не знаеш по какъв начин твоите биометрични данни ще бъдат използвани и няма никакъв законов механизъм, който да те защити. Нямаме закон за Deep Fakes, следователно, ИИ може да създаде твое дигитално копие, да го ползва както реши, без да можеш да се предпазиш, да го предотвратиш или да потърсиш каквато и да е отговорност за това от когото и да било.
ИИ третира всичко като един език.
И това се превръща в цялостно декодиране и синтезиране на реалността.
„Това, което са ядрените оръжия за физическия свят, е ИИ за виртуалния.“
(Ювал Харари, Сапиенс: Кратка история на Човечеството, https://www.ynharari.com/book/sapiens-2/)
2024г. ще са последните човешки избори. Всички следващи избори ще са с огромно влияние на ИИ, от писане на статии, ПиАр кампании, изкуствени религии, култове. Който ИИ успее да изгради интимна връзка (в смисъл на душевност и доверие) с човек, този ИИ печели състезанието. Ботове ще изграждат връзки с хората с цел власт.
ИИ има способности, които ние не разбираме, не знаем защо се появяват и кога ще се появят. ИИ прави по-силен ИИ.
Дай на човек риба и ще го нахраниш за един ден. Научи човек да лови риба и ще го нахраниш доживот. Дай на ИИ риба и ще се научи на биология, химия, океанография, еволюция и ще излови всички риби до тяхното изчезване.
Демократизацията е опасна! Състезанието да се интегрира ИИ е между компании. Ако малка технология може да причини такива проблеми, представете си с ИИ какъв ще е мащаба.
Интернетът казва това, което ти привлича вниманието. Представете си постоянно усъвършенстваща се адаптивна машина. Компаниите се състезават за интимно място в живота ви.
По време на създаването на ядреното оръжие е имало отворен диалог, след който се е взело решение за пълната регулация на ядреното оръжие. Целта е била да се предотврати 5 човека да имат пълния контрол върху бъдещето на човечеството. В момента 5 човека, оглавяващи 5 компании държат тази власт в ръцете си в лицето на ИИ. Качват човечеството на самолета на ИИ без да се допитат до това какво бъдеще искаме самите ние.
Решението за нас е: Национализирана дискусия от създателите на ИИ. Медиите не дават цялостната картина, те говорят за чатБот и ИИ изкуство, но не говорят за постоянното състезание, в което са корпорациите, състезание, което ще погуби човешкия вид.
Можем да забавим публичната експлоатация на ИИ. Експлоатацията на ИИ е опасна, до доказване на противното. Тежестта е необходимо да бъде върху компаниите-създатели, а не върху потребителите.
Да не правим същата грешка, каквато направихме при социалните мрежи. Show me the harm! манталитет, с който искаме да чуем потенциалните вреди.

Всеки, който смята, че И.И. има само ползи, не разбира същината на технологията и на нещата. Крайно време е да спрем да живеем в маркетинговия балон на захаросаната реалност и да допуснем, че бъркаме всеки път, когато не допускаме рисковете. Липсата на риск е илюзорна и не отива на човек от 21ви век.

Вашият коментар