Uno studio rivela le potenziali fonti di bias dell’intelligenza artificiale in ambito cosmetico, utilizzando i dati pubblicati in letteratura

Da qualche anno a questa parte, i progressi scientifici e l’avvento delle tecnologie chimiche moderne hanno contribuito al crescente sviluppo di cosmetici caratterizzati da maggiori efficacia, sicurezza e sostenibilità ambientale.

Il comparto beauty odierno è sempre più guidato dall’innovazione e le offerte in tal senso sono in continua evoluzione: gli strumenti digitali sono infatti diventati ormai parte integrante del settore cosmetico ed includono tecniche all’avanguardia per la raccolta di informazioni sulle peculiarità di pelle e capelli.

Questi sistemi consentono di interpretare set di dati complessi e multidimensionali e forniscono ai consumatori consigli su prodotti o trattamenti. Tali approcci avanzati contribuiscono alla creazione di percorsi ed esperienze d’acquisto sempre più personalizzate.

Poiché l’intelligenza artificiale (AI) può svolgere molteplici compiti che fino a poco tempo fa venivano svolti dagli esseri umani, ha ereditato una serie di caratteristiche negative della mente umana. Queste ultime comprendono preconcetti e discriminazioni ingiustificate contro gli individui, in particolare per quanto riguarda la non conformità agli standard di bellezza globali.

Lo studio

Il presente lavoro, pubblicato su AI Ethics, è stato condotto con l’obiettivo di rivelare le potenziali fonti di bias dell’intelligenza artificiale in ambito cosmetico, utilizzando i dati pubblicati in letteratura.

Le fonti di distorsione sono state classificate in base alla fase del ciclo di vita dell’AI in cui possono verificarsi. Si parla pertanto di distorsioni associate alla definizione degli obiettivi, distorsioni legate all’acquisizione e all’annotazione dei dati, distorsioni nella modellazione, distorsioni durante la convalida e la valutazione e distorsioni durante l’implementazione e il monitoraggio.

Vengono presentate anche le principali definizioni nel campo della ricerca sui bias dell’AI, a partire dal termine “pregiudizio”. Per giustificare la sistematizzazione delle conoscenze sulle distorsioni dell’AI nei diversi settori, vengono forniti anche i dati attuali sulle normative legali.

Le conclusioni

La problematica della discriminazione correlata all’uso dei sistemi di intelligenza artificiale è stata scientificamente riconosciuta.

Svariate iniziative sono già state adottate dai principali attori all’interno e all’esterno dell’industria cosmetica e/o beauty tech. Basti pensare alla costante attenzione riservata alle tematiche dell’inclusione, soprattutto in merito a colore della pelle, età, sesso ed etnia degli individui.

L’analisi in questione sottolinea quanto l’AI sia uno specchio di come la società considera il singolo e i gruppi di persone. Gli sviluppi tecnologici sono pertanto un riflesso del pensiero umano e offrono una visione soggettiva della società: ne rivelano infatti quei preconcetti distintivi, che altrimenti rimarrebbero nascosti. I sistemi di intelligenza artificiale possono quindi essere progettati non solo per rilevare i pregiudizi, ma anche per eliminarli.

Georgievskaya A., Tlyachev T., Danko D. et al., How artificial intelligence adopts human biases: the case of cosmetic skincare industry, AI Ethics (2023).
https://doi.org/10.1007/s43681-023-00378-2