|
|
|||
|
||||
OverviewAttraverso una revisione sistematica della letteratura, questo articolo esplora come alcuni algoritmi di IA siano parziali, una situazione che rappresenta un grave rischio etico e sociale, dato che i sistemi automatizzati partecipano attivamente a una serie di decisioni. Inoltre, analizza come la mancanza di diversità nei team di sviluppo dell'IA e negli insiemi di dati di addestramento aumenti la probabilità di pregiudizi. Inoltre, evidenzia le implicazioni etiche e sociali di questi pregiudizi in diversi contesti, come ad esempio sul posto di lavoro, dove gli strumenti di reclutamento automatico discriminano le candidate donne, o in medicina, dove le diagnosi sono meno accurate per le donne a causa della mancanza di dati rappresentativi. Da un punto di vista normativo, si riconosce l'insufficienza di quadri giuridici vincolanti. Sebbene vi siano sforzi come la proposta di legge sull'IA dell'Unione Europea o le raccomandazioni etiche dell'UNESCO, molti di questi regolamenti mancano di meccanismi di applicazione efficaci. Al contrario, Paesi come il Canada hanno adottato strumenti obbligatori di valutazione dell'impatto degli algoritmi, che rappresentano un modello più efficace. Full Product DetailsAuthor: Marena Vitola-Quintero , José Julián Moreno Sáenz , Jhon Eduard Jiménez HerreraPublisher: Edizioni Sapienza Imprint: Edizioni Sapienza Dimensions: Width: 15.20cm , Height: 0.40cm , Length: 22.90cm Weight: 0.100kg ISBN: 9786209584220ISBN 10: 6209584225 Pages: 64 Publication Date: 15 February 2026 Audience: General/trade , General Format: Paperback Publisher's Status: Active Availability: Available To Order We have confirmation that this item is in stock with the supplier. It will be ordered in for you and dispatched immediately. Language: Italian Table of ContentsReviewsAuthor InformationTab Content 6Author Website:Countries AvailableAll regions |
||||