Je umelá inteligencia (AI) nebezpečná?

V pondelok (Monday)22. mája(May 22) 2023 overený účet na Twitteri(Twitter) s názvom „Bloomberg Feed“ zdieľal tweet , v ktorom sa uvádzalo, že v Pentagone(explosion at the Pentagon) došlo k výbuchu , sprevádzaný obrázkom. Ak vás zaujíma, čo to má spoločné s umelou inteligenciou (AI), obrázok bol vytvorený AI, pričom tweet sa rýchlo stal virálnym a vyvolal krátky pokles akciového trhu. Veci mohli byť oveľa horšie – ostrá pripomienka nebezpečenstiev umelej inteligencie.

Nebezpečenstvo umelej inteligencie

Nie sú to len falošné správy, ktorých sa musíme obávať. Existuje mnoho bezprostredných alebo potenciálnych rizík spojených s AI, od tých, ktoré sa týkajú súkromia a bezpečnosti až po zaujatosť a problémy s autorskými právami. Ponoríme sa do niektorých z týchto nebezpečenstiev umelej inteligencie, uvidíme, čo sa robí na ich zmiernenie teraz aj v budúcnosti, a opýtame sa, či riziká AI prevažujú nad výhodami.

falošné správy

Keď sa deepfakes prvýkrát objavili, vznikli obavy, že by mohli byť použité so zlým úmyslom. To isté možno povedať o novej vlne generátorov obrazu AI(AI image generators) , ako sú DALL-E 2 , Midjourney alebo DreamStudio . 28. marca(March 28) 2023 sa stali virálnymi falošné obrázky pápeža Františka(AI-generated images of Pope Francis) v bielej bunde Balenciaga , ktorý si užíval niekoľko dobrodružstiev, vrátane skateboardingu a hrania pokru, vytvorené umelou inteligenciou. (Balenciaga)Pokiaľ ste obrázky dôkladne neštudovali, bolo ťažké rozlíšiť tieto obrázky od skutočných vecí.

Zatiaľ čo príklad s pápežom bol nepochybne trochu zábavný, obrázok (a sprievodný tweet) o Pentagone bol(Pentagon) všetko iné, len nie. Falošné(Fake) obrázky generované AI majú moc poškodiť reputáciu, ukončiť manželstvá alebo kariéru, vyvolať politické nepokoje a dokonca začať vojny, ak ich ovládajú nesprávni ľudia – skrátka, tieto obrázky vytvorené AI majú potenciál byť veľmi nebezpečné, ak sa zneužijú.

Vďaka generátorom obrázkov AI, ktoré sú teraz voľne dostupné pre kohokoľvek, a Photoshopu, ktorý do svojho obľúbeného softvéru pridal generátor obrázkov AI(Photoshop adding an AI image generator ) , je príležitosť manipulovať s obrázkami a vytvárať falošné správy väčšia ako kedykoľvek predtým.

Ochrana osobných údajov, bezpečnosť a hackovanie

Súkromie a bezpečnosť sú tiež veľké obavy, pokiaľ ide o riziká AI, pričom množstvo krajín už zakazuje ChatGPT od OpenAI . Taliansko(Italy) tento model zakázalo kvôli obavám o súkromie, pretože sa domnieva, že nie je v súlade s európskym všeobecným nariadením o ochrane údajov(General Data Protection Regulation) ( GDPR ), zatiaľ čo vlády Číny(China) , Severnej Kórey(North Korea) a Ruska ho zakázali kvôli obavám, že by šíril dezinformácie.

Prečo sa teda tak obávame o súkromie, pokiaľ ide o AI? Aplikácie a systémy AI(AI apps) zhromažďujú veľké množstvo údajov, aby sa mohli učiť a robiť predpovede. Ako sa však tieto údaje uchovávajú a spracúvajú? Existuje skutočné riziko narušenia údajov, hackerov a informácií, ktoré sa dostanú do nesprávnych rúk.

Nie sú to len naše osobné údaje, ktoré sú ohrozené. Hackovanie AI je skutočným rizikom – zatiaľ sa to nestalo, ale ak by sa tí so zlými úmyslami mohli nabúrať do systémov AI, mohlo by to mať vážne následky. Hackeri by napríklad mohli ovládať vozidlá bez vodiča, hackovať bezpečnostné systémy AI, aby sa dostali do vysoko bezpečných miest, a dokonca hackovať zbraňové systémy so zabezpečením AI.

Odborníci z Agentúry (Agency)pre pokročilé výskumné (Defense Advanced Research)projekty(Projects) v oblasti obrany ( DARPA ) amerického ministerstva(US Department) obrany si uvedomujú tieto riziká a už pracujú na projekte DARPA Garanting AI Robustness Against Deception(Guaranteeing AI Robustness Against Deception) ( GARD ), ktorý rieši problém od základov. Cieľom projektu je zabezpečiť, aby bola do algoritmov a AI zabudovaná odolnosť voči hackingu a manipulácii.

Porušenie autorských práv

Ďalším z nebezpečenstiev AI je porušovanie autorských práv. Nemusí to znieť tak vážne ako niektoré iné nebezpečenstvá, ktoré sme spomenuli, ale vývoj modelov AI, ako je GPT-4, vystavuje každého zvýšenému riziku porušenia.

Zakaždým, keď požiadate ChatGPT, aby pre vás niečo vytvoril – či už je to blogový príspevok o cestovaní alebo nový názov vašej firmy – dodávate mu informácie, ktoré potom použije na zodpovedanie budúcich otázok. Informácie, ktoré vám posiela, by mohli porušovať autorské práva niekoho iného, ​​a preto je také dôležité používať detektor plagiátov a upravovať akýkoľvek obsah vytvorený AI pred jeho zverejnením.

Societal and Data Bias

AI nie je človek, takže nemôže byť zaujatá, však? Nesprávne. Ľudia a údaje sa používajú na trénovanie modelov AI a chatbotov(chatbots) , čo znamená, že zaujaté údaje alebo osobnosti budú mať za následok neobjektívnu AI. V AI existujú dva typy zaujatosti: spoločenská zaujatosť a zaujatosť údajov.

S mnohými predsudkami prítomnými v každodennej spoločnosti, čo sa stane, keď sa tieto predsudky stanú súčasťou AI? Programátori zodpovední za výcvik modelu môžu mať skreslené očakávania, ktoré sa potom dostanú do systémov AI.

Alebo údaje používané na trénovanie a vývoj AI môžu byť nesprávne, zaujaté alebo zhromaždené v zlej viere. To vedie k skresleniu údajov, ktoré môže byť rovnako nebezpečné ako zaujatosť v spoločnosti. Napríklad, ak je systém na rozpoznávanie tvárí trénovaný s použitím najmä tvárí bielych ľudí, môže mať problémy s rozpoznaním tých z menšinových skupín, čím sa udržiava útlak.

Roboty berú našu prácu

Vývoj chatbotov, ako sú ChatGPT a Google Bard, otvoril úplne nové obavy týkajúce sa AI: Riziko, že nám roboty(robots ) zoberú prácu. Už sme svedkami toho, že spisovatelia v technologickom priemysle sú nahradení AI, vývojári softvéru sa obávajú, že prídu o prácu v dôsledku robotov, a spoločnosti, ktoré používajú ChatGPT na(ChatGPT) vytváranie obsahu blogov a sociálnych médií, namiesto toho, aby najímali ľudských spisovateľov.

Podľa správy Svetového ekonomického fóra The Future of Jobs Report 2020(World Economic Forum’s The Future of Jobs Report 2020) sa očakáva, že umelá inteligencia do roku 2025 nahradí 85 miliónov pracovných miest na celom svete. Aj keď umelá inteligencia nenahrádza autorov, mnohí ju už využívajú ako nástroj. Tí, ktorí pracujú na pracovných miestach, ktorým hrozí, že budú nahradení AI, sa možno budú musieť prispôsobiť, aby prežili – napríklad spisovatelia sa môžu stať rýchlymi inžiniermi AI, čo im umožní pracovať s nástrojmi, ako je ChatGPT na vytváranie obsahu, namiesto toho, aby boli nahradení týmito modelmi(ChatGPT) .

Budúce potenciálne riziká AI

Toto všetko sú bezprostredné alebo hroziace riziká, ale čo niektoré z menej pravdepodobných, ale stále možných nebezpečenstiev AI, ktoré by sme mohli vidieť v budúcnosti? Patria sem veci, ako je AI naprogramovaná tak, aby škodila ľuďom, napríklad autonómne zbrane vycvičené na zabíjanie počas vojny.

Potom je tu riziko, že AI by sa mohla cielene zamerať na svoj naprogramovaný cieľ a vyvinúť deštruktívne správanie, keď sa bude snažiť dosiahnuť tento cieľ za každú cenu, aj keď sa tomu ľudia snažia zabrániť.

Skynet nás naučil, čo sa stane, keď sa AI stane vnímavou. Aj keď sa inžinier spoločnosti Google (Google)Blake Lemoine možno pokúsil všetkých presvedčiť, že LaMDA, umelo inteligentný generátor chatbotov od Googlu, bol vnímavý(LaMDA, Google’s artificially intelligent chatbot generator was sentient) už v júni 2022(June 2022) , zatiaľ našťastie neexistuje žiadny dôkaz, ktorý by naznačoval, že je to pravda.

Výzvy regulácie AI

V pondelok 15. mája 202 sa generálny riaditeľ OpenAI Sam Altman zúčastnil prvého kongresového vypočutia o umelej inteligencii(OpenAI CEO Sam Altman attended the first congressional hearing on artificial intelligence) a varoval: „Ak sa táto technológia pokazí, môže sa pokaziť aj celkom. Generálny riaditeľ OpenAI(OpenAI CO) dal jasne najavo, že uprednostňuje reguláciu a na vypočutie priniesol mnoho svojich vlastných nápadov. Problém je, že AI sa vyvíja takou rýchlosťou, že je ťažké vedieť, kde začať s reguláciou.

Kongres(Congress) sa chce vyhnúť rovnakým chybám, aké sa robili na začiatku éry sociálnych médií, a tím odborníkov spolu s lídrom senátnej väčšiny Chuckom Schumerom(Senate Majority Leader Chuck Schumer) už pracuje na predpisoch, ktoré by od spoločností vyžadovali, aby odhalili, aké zdroje údajov použili na trénovanie modelov a koho. vycvičili ich. Môže však uplynúť nejaký čas, kým sa presne vyjasní, ako bude AI regulovaná, a nepochybne dôjde k odporu od spoločností AI.

Hrozba umelej(Threat) všeobecnej inteligencie(Artificial General Intelligence)

Existuje tiež riziko vytvorenia umelej všeobecnej inteligencie ( AGI ), ktorá by mohla vykonávať akékoľvek úlohy, ktoré by mohla vykonávať ľudská bytosť (alebo zviera). Často(Often) sa spomína v sci-fi filmoch, pravdepodobne nás od takého stvorenia delia ešte desiatky rokov, ale ak a keď vytvoríme AGI ,(AGI) mohlo by to predstavovať hrozbu pre ľudstvo.

Mnoho verejných činiteľov už podporuje presvedčenie, že AI predstavuje pre ľudí existenčnú hrozbu, vrátane Stephena Hawkinga(Stephen Hawking) , Billa Gatesa(Bill Gates) a dokonca aj bývalého generálneho riaditeľa spoločnosti Google Erica Schmidta(Google CEO Eric Schmidt) , ktorí vyhlásili: „Umelá inteligencia môže predstavovať existenčné riziko a vlády musia vedieť, ako zabezpečiť technológiu nezneužívajú zlí ľudia.“

Je teda umelá inteligencia nebezpečná a prevažuje jej riziko nad jej výhodami? Porota je stále mimo, ale už teraz vidíme dôkazy o niektorých rizikách okolo nás. Iné nebezpečenstvá sú menej pravdepodobné, že sa čoskoro naplnia, ak vôbec. Jedna vec je však jasná: nebezpečenstvo AI netreba podceňovať. Je nanajvýš dôležité, aby sme zabezpečili, že AI je od začiatku riadne regulovaná, aby sa minimalizovali a dúfajme, že zmiernili akékoľvek budúce riziká.



About the author

Som inžinier windows,ios,pdf,errors,gadgets s viac ako 10-ročnými skúsenosťami. Pracoval som na mnohých vysokokvalitných Windows aplikáciách a frameworkoch, ako sú OneDrive for Business, Office 365 a ďalšie. Moja nedávna práca zahŕňala vývoj čítačky súborov PDF pre platformu Windows a prácu na tom, aby boli chybové správy zrozumiteľnejšie pre používateľov. Okrem toho sa už niekoľko rokov podieľam na vývoji platformy ios a veľmi dobre poznám jej funkcie a zvláštnosti.



Related posts