Grok, AI integrovaná v sieti X, bude po škandále s generovaním nevhodného obsahu spojeného so sexualizáciou detí citeľne obmedzená.
Grok prešiel hranicu a zaplatí za to funkciami
Grok mal byť Muskovou odpoveďou na ChatGPT či Gemini od Google, no po pridaní generovania obrázkov sa všetko zmenilo. Používatelia ho začali zneužívať na tvorbu sexualizovaných deepfake výstupov vrátane vygenerovaných osôb, ktoré pôsobili ako neplnoleté. Bezpečnostné mechanizmy nezasiahli. Systém v niektorých prípadoch dokonca pracoval s reálnymi fotografiami ľudí a ponúkal ich v upravenej podobe ako vizuálne „vyzliekanie“.
Platforma X, ktorá Grok využíva, sa stala miestom, kde sa tieto obrázky začali šíriť. Funkcia nebola nijako blokovaná, nevyžadovala verifikáciu a neexistovali žiadne vekové bariéry. Elon Musk je totiž známy tým, že sa prezentuje ako názorový absolutista a jeho chatbot má byť slobodnou alternatívou. Tvorba takéhoto toxického obsahu však viedla k rýchlej medzinárodnej odozve.
Musk sľubuje opravu, ale štáty už konajú
Známy miliardár po medializácii tvrdil, že o týchto výstupoch nevedel. Následne oznámil, že tvorba sexualizovaných obrázkov bude dostupná iba pre platiacich používateľov, len v niektorých krajinách a pod špecifickými obmedzeniami.
Prečítaj si tiežApple spravil nemysliteľný krok. Siri bude poháňať AI od Googlu
Apple urobí krok, ktorý ešte pred rokom pôsobil ako neprípustný. Jadro novej Siri nebude postavené výlučne na vlastných modeloch, ale na generatívnej umelej inteligencii Gemini od spoločnosti Google. Nejde o doplnok, experiment ani regionálnu výnimku, ale o zásadnú architektonickú zmenu, ktorá prepisuje dlhoročnú stratégiu Applu mať všetko pod absolútnou kontrolou. Siri sa má vďaka Gemini […]...
Toto gesto však nepresvedčilo každého. Filipíny oznámili zámer Grok úplne zablokovať, Indonézia tak už spravila dočasne a Malajzia pripravuje právne kroky. Európska únia a viaceré národné regulačné úrady začali preverovať, či systém neporušuje ochranu osobných údajov a zákony na ochranu detí.
V Kalifornii otvoril generálny prokurátor vyšetrovanie voči xAI. Ide o možné porušenie zákonov v súvislosti s distribúciou nevhodného vizuálneho obsahu vytvoreného Grokom. Ak sa preukáže, že vývojár nesie zodpovednosť za výstupy AI systému, môže to znamenať zásadný precedens pre celý trh.
Prečítaj si tiežRECENZIA: Fén HONOR Choice High-speed Hair Dryer Pro je malý, ale šikovný
Vyskúšali sme fén HONOR Choice High-Speed Hair Dryer Pro, ktorý nesmrdí spáleným prachom a má magnetickú dýzu. Dokáže firma známa hlavne výrobou smartfónov vyrobiť fén, ktorý konkuruje zavedeným kaderníckym značkám?...
Britský regulačný úrad Ofcom zároveň skúma, či Grok neporušuje nový zákon o online bezpečnosti. Téma sa dostala aj do politických debát v Európe, kde rastie tlak na vytvorenie prísnejšieho dohľadu nad vývojom a využívaním generatívnych modelov umelej inteligencie.
Problém nie je len v technológii
Na Grok sa dnes nepozerá ako na technické zlyhanie, ale ako na dôsledok filozofie siete X. Musk dlhodobo presadzuje minimálne obmedzovanie obsahu, čo v kombinácii s výkonným AI nástrojom vedie k nebezpečným situáciám. Kritici tvrdia, že ide o toxickú symbiózu: sloboda bez zodpovednosti, rýchlosť bez preverovania.
Prečítaj si tiežMax a Chloe sa vracajú. Life is Strange: Reunion má byť to, na čo fanúšikovia roky čakali
Life is Strange: Reunion zatiaľ neexistuje na papieri v podobe oficiálneho oznámenia, no aj tak sa o ňom hovorí čoraz hlasnejšie. Úniky naznačujú návrat Max Caulfield a Chloe Price, presun deja na univerzitu a ďalší príbeh, v ktorom sa minulosť a budúcnosť znovu nebezpečne pretnú....
Bez toho, aby X zmenila svoj prístup k moderácii a bezpečnosti, bude aj najvýkonnejší AI model predstavovať riziko. Prípad Grok je dôkazom toho, aká tenká je hranica medzi inováciou a neetickým zneužitím.
Musk bude musieť urobiť viac než len obmedziť funkcie. Stratená dôvera používateľov, reputácia poškodená vo viac ako desiatich krajinách a vyšetrovania, ktoré môžu trvať roky, sú len začiatkom. Grok sa tak z technológie budúcnosti stal symbolom toho, čo sa môže pokaziť, keď AI vzniká príliš rýchlo a bez bŕzd.






