Jak se uměligence projeví v naší společnosti? Co se všechno mění a změní? Jaká nás čeká budoucnost? A co děti, budou si mít kde hrát? A co skláři, budou mít co žrát?
Lidstvo si od nepaměti láme hlavu nad tím, jak se vyhnout práci. Nejprve jsme za pluhy zapřáhli zvířata. V průmyslové revoluci jsme zkrotili parní stroje, které vystřídala elektrifikace. V digitální éře nás v počítání nahradily počítače. A zatím posledním krokem v této evoluční štafetě je AI.
Přestože máme neustále lepší a lepší technologie, které dokáží lidskou práci nahradit, práce tu stále je. A pro čím dál víc lidí. Mění se jen její podoba.
Ještě před sto lety zajišťovaly pohyb po metropolích koně. Boom dopravy přivedl města do situace, kdy byly doslova zasypány hnojem (a když říkám hnojem, myslím tím další odpadní produkty od našich čtyřnohých přátel). Legenda praví, že jeden novinář z Times věštil, že do roku 1930 budou všechny ulice New York City skryty pod třemi metry tohoto materiálu. Celý ten příběh — a co má společného s dnešní AI — rozebírám podrobněji v blogu. Přitom města bez koní si nikdo nedokázal představit.
Dnes víme, že změnu přinesl osobní automobil. Jistě, kočí, podkoní nebo pěstitelé ovsa ztratili práci. Automobil ale zároveň odstartoval zcela nové a mnohem větší odvětví. Technická revoluce sice vzala lidem práci s uklízením hoven po koních, ale dala jim příležitost na záchodcích v motorestech uklízet hovna po lidech. Po celém světě dala zaměstnání lidem v ropném průmyslu. Stavbě silnic. A dnes zajišťuje společenské vyžití mladým lidem pod hlavičkou Poslední generace.
AI je v téhle analogii inteligentní lopata. Práci ti spíš usnadní, než vezme. Těžší to samozřejmě bude pro ty, kteří se živí prodejem starých lopat — nebo jsou mistři v jejich používání. Konkrétní příklad? Podívej se, jak AI mění svět překladatelů. Ti se budou muset přeorientovat.
Líhnou se proto zástupy novopečených AI odborníků, vždyť stačí být o kapitolu napřed. Podobně jako učitelky angličtiny po revoluci. Mezi nové profese patří prompt designer (ví, jak pokládat dotaz do ChatGPT), prompt ninja (ví, jak pokládat dotaz do ChatGPT a ještě mu nebylo dvacet let), AI koordinátor (ví, jak pokládat dotazy prompt designerovi a ninjovi) nebo Machine Learning Operations Engineer (náplň jeho práce zůstává zahalena tajemstvím i pro HR oddělení, které inzerát psalo).
Vývoj nám práci nebere, jen ji mění. Nelítostně a jednou pro vždy. A v tom je jeho nebezpečí a krása. Tolik jsem ti chtěl říct.
Když v roce 2019 natrénovala společnost OpenAI model GPT‑2, byli výzkumníci jeho schopností tvořit přirozeně znějící text tak zaskočeni, že veřejnosti dali nejprve k dispozici jen omezenou verzi — z obavy, aby nebyl zneužit ke generování dezinformací. O rok později vyšel GPT‑3 se stokrát větším počtem parametrů. A v nich si model drží jakýsi latentní model reality, který mu umožňuje podávat překvapivé výkony. Jako třeba vysvětlovat vtipy.
V roce 2023 zveřejnila skupina expertů, podnikatelů a dalších signatářů výzvu k pozastavení experimentů s umělou inteligencí. Podepsaly ji tisíce lidí včetně Elona Muska a Steva Wozniaka. Přitom Wozniak v rozhovoru o pár měsíců dříve prohlásil: „Ve zkratce AI věřím v to první písmeno — tedy artificial, umělé — ale inteligence v tom žádná není." A Musk jen o pár týdnů později založil společnost X.AI, zaměřenou na to, aby soupeřila s ChatGPT. Pauza nenastala — ti, kteří petici podepsali, zároveň ve svých firmách vývoj nezastavili.
Jak to dopadlo s Muskem a jeho X.AI? Vznikl Grok — chatbot trénovaný na datech z X (dříve Twitter). Musk ho představil jako „nejchytřejší umělou inteligenci na planetě". Jenže v systémovém promptu Groka byla nalezena instrukce ignorovat zdroje kritizující Muska a Trumpa. A když byl Grok sám dotázán, kdo je největším šiřitelem dezinformací, odpověděl konzistentně: Elon Musk. Celý příběh stojí za přečtení.
Jestli se blížíme k obecné umělé inteligenci, je otevřená otázka. Reálná rizika AI jsou ale mnohem prozaičtější — a o to nebezpečnější.
AI ve špatných rukou může způsobit mnoho škody. Třeba když ji vlády zneužijí proti svým občanům. Ale nemusíme chodit tak daleko.
ChatGPT je mistr v generování dezinformačních článků, řetězových emailů nebo falešných komentářů. Vychrlí je během chvilky a namíchá do nich tu správnou směs ingrediencí — kousek pravdy, kousek lži a špetku vzteku. Říkám si, může větší záplava polopravd něco změnit? Paradoxně by snadnost, se kterou si každý vygeneruje svůj alternativní obsah, mohla srazit jeho hodnotu. Představ si dezinformační web, kde se při každém obnovení stránky objeví čerstvé články. I když lákavě necenzurované a politicky nekorektní — kdo by je chtěl číst? Tak mě napadá, že bych si měl o víkendu pár takových webů vytvořit.
Deepfaky jsou ale vážnější problém. Ve slovenských parlamentních volbách 2023 koloval falešný audioklip, kde lídr Progresivního Slovenska Michal Šimečka prý domlouval nákup hlasů za alkohol. Nasyntetizováno, nikdy neřečeno. V americké prezidentské kampani 2024 se podobných pokusů rozmohlo ještě víc. Volební manipulace skrze falešné záznamy přestala být teoretická hrozba.
Klonování hlasů navíc dávno není hudba budoucnosti — je to podvod přítomnosti. Stačí krátký záznam originálu, pár sekund, a model mluví stejným hlasem. Podvodníci volají lidem a tváří se přitom jako jejich příbuzní v tísni. Zavolá ti dítě s naléhavou žádostí o stotisíc korun — ale ve sluchátku bude cizí člověk s natrénovaným hlasem. Osobně bych takový podvod odhalil, protože nemám děti. Jiní zase mají to štěstí, že nemají tolik peněz. Ale i tak: buď obezřetný a ověřuj si přes jiný kanál.
Časem si na to zvykneme. Stejně jako na to, že se nedá věřit fotografiím. Už od dob, co z nich mizeli muži poblíž sovětského diktátora Stalina.
AI se už dnes používá v mnoha oblastech — a nejde jen o chatboty. Jsou tu diagnostické nástroje v medicíně, generátory kódu ve vývojářských editorech, AI agenti schopní plnit složité úkoly bez lidského dohledu. Tohle není sci-fi příštího desetiletí. Tohle je provoz dneška.
Díky tomu, že AI dokáže zpracovávat ohromující množství dat, zásadně posouvá zdravotnictví. Miliony lidí nosí chytré hodinky a prstýnky, které nepřetržitě sledují jejich zdravotní stav. Teď detekují arytmie. Za pár let budou upozorňovat na nástup rakoviny dřív, než to zobrazí MRI. Personalizované léčebné plány místo průměrného protokolu pro sedmdesátikilového muže středního věku, na který jsou dávky léků tradičně kalibrovány.
AI má potenciál zásadně změnit vzdělávání. Může fungovat jako individuální učitel pro každého studenta — trpělivý, dostupný ve tři ráno, bez vedlejšáku. Ale obávám se, že rodiče touží nechávat své děti procházet stejným vzdělávacím utrpením, které sami zažili, zastaralým rakousko-uherským školským systémem, místo toho, aby jim dopřáli výhody moderních vzdělávacích metod. Brzdou nebude technologický pokrok, ale lidská zaslepenost.
A z úplně jiného konce světa: díky AI se dočkáme mnohem lepších videoher. Postavy se budou chovat realističtěji, hry se budou přizpůsobovat každému hráči zvlášť. Časem začnu opravdu litovat, že mě nebaví hry hrát.
Jedno dotazování do ChatGPT spotřebuje zhruba desetkrát víc energie než běžné Google vyhledávání. To by samo o sobě nevadilo. Problém je, že se AI ptá celá planeta a trénování modelů je teprve opravdový energetický moloch.
Microsoft v září 2024 podepsal smlouvu na odběr elektřiny z jaderné elektrárny Three Mile Island — té, co je proslulá havárií z roku 1979. Reaktor se pro tento účel znovu zprovoznil. Google, Amazon a další staví nebo financují nové jaderné kapacity. Datová centra přitom potřebují nejen elektřinu, ale i chlazení: Microsoft v roce 2022 spotřeboval přes šest miliard litrů vody na provoz svých datových center.
Uhlíková stopa AI roste závratnou rychlostí a není vidět, kde se zastaví. Firmy většinou reportují emise z provozu, ale do trénovacích nákladů se moc nehrnou. Tohle není alarmismus — jsou to čísla ve výročních zprávách. Otázka, zda benefity za tu cenu stojí, je legitimní a zaslouží si hlasitější veřejnou diskusi než jakou teď má.
Začalo to v roce 2022, kdy školy začaly plošně zakazovat ChatGPT. Detektory plagiátů slibovaly odhalení AI generovaných textů. Pak se ukázalo, že spolehlivě označují jako AI i texty napsané lidmi — a naopak. Profesoři psali vlastní eseje, systém je odmítal jako strojové.
Část škol se přeorientovala: místo zákazu učí pracovat s AI zodpovědně. Nechej studenty AI používat, ale chtěj po nich, aby rozuměli výsledku, uměli ho kriticky posoudit a obhájit. Jiné školy na zákazech trvají a doufají, že to přejde. Nepřejde.
Reálná situace je prostá: záleží na tom, jak student AI používá. Kdo ji nechá napsat celý referát a odevzdá ho bez přečtení, ten se nic nenaučí — a zpravidla to bude i vidět. Kdo ji použije jako chytrého spolužáka, se kterým přemýšlí nahlas, získá. AI ve vzdělávání není problém — jsou jím stejné lidské sklony k lenosti, jaké tady byly vždy.
Lidské myšlení je zatíženo mnoha kognitivními zkresleními. Ba co hůř: i když o nich víme, nejsme schopni se jim vyhnout. Stále zřetelněji se ukazuje, jak tato zkreslení bortí schopnost společně rozhodovat o klíčových otázkách. Pokud základem demokracie je racionální diskuse, pak demokracie stojí na nesplnitelných předpokladech.
V nejoptimističtějším scénáři vyvineme AI schopnou navrhovat řešení zásadních společenských otázek bez politizování a lidských zkreslení. Místo testování sociálního inženýrství na živých lidech bychom ho testovali na modelech. Bez pomoci AI si upřímně nedovedu představit řešení tak komplexního problému, jako je klimatická krize. Samozřejmě i takový Centrální Mozek Lidstva může mít chyby — ale to by byl pořád lepší výsledek než průměrné koaliční vyjednávání.
Teď ale realistický scénář: zákonodárství a výkonná moc se točí primárně kolem zákonů, a zákony nejsou ničím jiným než textovým korpusem — navíc neustále se měnícím. Přesně v téhle oblasti jazykové modely excelují. AI výrazně zjednoduší vyhledávání v zákonech, jejich přepis do srozumitelného jazyka, dokonce může hledat duplicity a navrhovat zjednodušení. Ke kterému nikdy nedojde — musím dodat, abych scénář udržel realistický.
Naprosté většině lidí připadá AI směšná a nevidí pro ni uplatnění. Ale na straně odborné veřejnosti, která pokrok pochopila, se odehrává zajímavá situace — tamní diskuse jdou v úvahách mnohem dál. Odborníci se začínají štěpit na dvě nesmiřitelné frakce: skeptici vs. doomsayeři.
Vzniká příkop mezi „máme tu úžasný jazykový model" vs. „jsme na počátku autonomní AI, která může začít realizovat své plány proti lidem". Jak to je? Čeká za rohem Skynet? Užitečnější než argumentovat za jednu stranu bude dát ti návod, jak číst situaci.
Za prvé, hraje se o nové rozložení sil mezi největšími americkými společnostmi. O nepředstavitelné peníze. Kdo bude příští Google? Kdo vyhraje aspoň drobný v loterii, do níž investoři slyšící na AI sypou bezhlavě peníze?
Za druhé, je to americké prostředí, kde platí „fake it till you make it". Říká ti něco jméno Elizabeth Holmes? Ta, co slibovala, že z kapky krve dokáže vyčíst spolehlivé informace o zdravotním stavu pacienta, a dotáhla firmu Theranos na valuaci 9 miliard dolarů. Co přesně udělala špatně? Měla prostě smůlu. V prostředí, kde všichni fejkují, musíš fejkovat nejvíc a doufat, že to nějak ukočíruješ.
Vzpomeň, jak Uber sliboval samořídící auta za rohem — ještě dřív, než si stačíš zavolat taxíka. Nebo hyperloop. Nebo kvantové počítače, co za sekundu spočítají dnes nespočítatelné. Jak se jim daří? Přesně tak.
Za třetí, skeptici nikoho nezajímají. Miláčci médií jsou doomsayeři. Daleko atraktivnější jsou odborníci mluvící o nebezpečí AI, která číhá za rohem. Veřejnost bude lačná po lidech, kteří si budou z prstu cucat apokalyptické scénáře.
Poslední aktualizace: únor 2026