L’AI Act, impostatato com’è sul rischio di danno e sulle valutazioni di impatto, rende leciti quasi tutti i sistemi maggiormente lesivi dei diritti individuali.
Si arricchiranno, oltre alle big tech, le imprese che si occuperanno di valutazione del rischio.
L’autorità italiana che dovrebbe fare, baloccarsi con le check lists?
L’unica cosa utile sarebbe una presa di posiziione italiana, che sancisca l’illegalità di diritto
di ciò che è già illegale sulla base del diritto vigente, al netto dell’AI Act: ad esempio, che la polizia possa usare un sistema intrusivo e non funzionante di “riconoscimento” delle emozioni.
@mcp @informapirata @informatica
L’AI Act, impostatato com’è sul rischio di danno e sulle valutazioni di impatto, rende leciti quasi tutti i sistemi maggiormente lesivi dei diritti individuali.
Si arricchiranno, oltre alle big tech, le imprese che si occuperanno di valutazione del rischio.
L’autorità italiana che dovrebbe fare, baloccarsi con le check lists?
L’unica cosa utile sarebbe una presa di posiziione italiana, che sancisca l’illegalità di diritto
di ciò che è già illegale sulla base del diritto vigente, al netto dell’AI Act: ad esempio, che la polizia possa usare un sistema intrusivo e non funzionante di “riconoscimento” delle emozioni.