🍪 Máš rád sladké?

Zbierame len nevyhnutné cookies. Ak nám to povolíš, budeme zbierať aj tie analytické na zlepšenie tvojho zážitku s našimi službami. Ochrana osobných údajov

Neviditeľný rasizmus v AI. Černošské účesy hodnotí negatívne

Neviditeľný rasizmus v AI. Černošské účesy hodnotí negatívne

Peter Vnuk
Peter Vnuk

Umelá inteligencia, ktorá má pomáhať spoločnosti, sa opäť ocitla pod paľbou kritiky. Najnovšie výskumy ukazujú, že viaceré populárne AI modely diskriminujú ľudí na základe účesov. Konkrétne účesov, ktoré sú tradične spájané s afroamerickou kultúrou

Algoritmy totiž systematicky hodnotia černošské účesy ako menej profesionálne, menej „inteligentné“ a dokonca menej dôveryhodné v porovnaní s európskymi alebo mainstreamovými štýlmi.

Experimenty, ktoré realizovali výskumníci z viacerých amerických univerzít, zahŕňali nahrávanie portrétov ľudí s rôznymi účesmi do populárnych vizuálnych AI nástrojov, ktoré následne hodnotili osobnostné črty na základe vzhľadu. Výsledky boli jednoznačné: účesy ako afro, dreadlocky či vrkoče boli asociované s negatívnymi vlastnosťami, zatiaľ čo rovné a uhladené vlasy boli vyhodnocované ako znak profesionality a inteligencie.

Rasizmus v AI môže byť väčší problém, než sa zdá

Tieto zistenia vyvolali znepokojenie medzi expertmi na umelú inteligenciu aj občianske práva. V ére, keď sa AI čoraz častejšie využíva v HR nástrojoch, automatizovanom rozhodovaní a bezpečnostných systémoch, má takýto predsudok ďalekosiahle dôsledky. Algoritmy môžu nevedome diskriminovať pri prijímaní do zamestnania, znižovať šance na získanie hypotéky, alebo dokonca ovplyvniť výber cieľov v systémoch sledovania.

Nákaza dorazí do Prahy. Nový Resident Evil tu prepukne už toto leto Prečítaj si tiež

Nákaza dorazí do Prahy. Nový Resident Evil tu prepukne už toto leto

Pražské ulice a Barrandov Studios privítajú tento rok filmový štáb, ktorý prinesie reštart série Resident Evil. Zach Cregger sľubuje návrat k napätiu, strachu a hernej atmosfére, ktorá si získala milióny fanúšikov po celom svete...

0 comments

Problém spočíva v dátach, na ktorých sú tieto modely trénované. Ak sú historické dáta zaujaté alebo reprezentujú spoločenské stereotypy, AI ich iba replikuje a posilňuje. Bez vedomej intervencie a dôslednej korekcie sa tieto technológie stávajú zrkadlom zaujatého sveta, nie jeho objektívnym analyzátorom.

Aké sú možné riešenia?

Riešením je transparentnosť, regulácia a rozmanitosť pri vývoji AI systémov. Je nutné nielen technicky upraviť modely, ale aj vytvárať nové, eticky robustné štandardy pre ich trénovanie. Firmy, ktoré vyvíjajú AI nástroje, by mali zaviesť mechanizmy na identifikáciu a elimináciu zaujatia. Nestačí len priznať chybu, je potrebné systémovo konať.

Prečítaj si tiež

GPT-5 je tu. Pamätá si stovky strán a prináša novinky. Splnil očakávania?

Spoločnosť OpenAI uviedla svoj zatiaľ najpokročilejší jazykový model GPT-5. Na scéne ho Sam Altman dlhodobo opisoval s obvyklou dávkou sebavedomia, keď naznačil, že ide o ďalší veľký krok pre AI a že tentoraz vraj pôjde o nástroj, ktorý zvládne všetko od vývoja kódu až po riadenie komplexných projektov....

0 comments

Otázka účesov môže na prvý pohľad pôsobiť marginálne, možno až úsmevne, no v skutočnosti ide o jeden z najviditeľnejších prejavov toho, ako technológie kopírujú spoločenskú nespravodlivosť.

Ak má byť budúcnosť riadená AI spravodlivá a inkluzívna, musí sa začať už na úrovni najzákladnejších vizuálnych rozhodnutí. Preto je táto správa taká dôležitá, upozorňuje totiž, že aj drobnosti v algoritme môžu mať obrovský vplyv na životy miliónov ľudí.

Pokračuj v čítaní

Povedali o nás...