introduzione
Contesto della ricerca e significato dello scopo
significato
Il diritto di interpretare l’algoritmo rispetta l’autonomia degli utenti e dei soggetti rilevanti.
Il diritto di interpretare l’algoritmo aiuta a evitare l’esternalizzazione e la dispersione dei costi dannosi del funzionamento dell’algoritmo.
Il diritto di interpretare gli algoritmi pone le basi per l’esercizio dei diritti tecnici del giusto processo per gli utenti e i soggetti correlati.
Il rischio della scatola nera algoritmica: le basi del diritto di interpretare gli algoritmi
Rischi che il capitale privato domini il potere pubblico
Violare la privacy e il diritto di conoscenza della controparte dell'algoritmo
Il fallimento della regolazione algoritmica
Contromisure contro le scatole nere algoritmiche: l'introduzione di diritti di interpretazione algoritmica
Definizione del concetto di diritto di interpretazione dell'algoritmo
La fattibilità dei diritti di interpretazione algoritmica
Due percorsi di sviluppo degli algoritmi (AI simbolica e AI neurale)
Tre studi sulle scatole nere algoritmiche nel settore dei media
"Sbloccare le tre fasi dell'ITO" è divulgato in modo completo e specifico
Regole dell'algoritmo di inferenza artificiale di "reverse engineering".
La "trasparenza comprensibile" può essere compresa dal pubblico senza conoscenze professionali
Giustificazione funzionale del potere interpretativo algoritmico
Mezzi regolatori del potere algoritmico
Meccanismo di correzione del gap di dati
Diritto di essere informato sul trattamento dei dati
Dimensioni del giudizio dei pro e dei contro dell'algoritmo
Il percorso per violare la scatola nera dell'algoritmo: l'essenza del potere di interpretazione dell'algoritmo
La struttura a due livelli dei diritti di interpretazione dell'algoritmo
Successivamente una spiegazione dettagliata
Spiegazione dell'aggiornamento successivo
Misurazione dei diritti di interpretazione degli algoritmi
Standard di leggibilità (presentati e compresi)
Standard controfattuale (questo standard richiede solo ai titolari del trattamento di fornire e divulgare informazioni sulle variabili che soddisfano il presupposto controfattuale)
Criteri verificabili (se una decisione specifica può essere verificata ripetutamente, può anche essere considerata fornire una spiegazione)
Meccanismo di decostruzione della scatola nera algoritmica: pratica del diritto di interpretazione algoritmica
Stabilire un meccanismo di pre-valutazione
Esterno: i regolatori algoritmici ottengono l’accesso
Interno: costruzione di un meccanismo di supervisione dell'algoritmo
Le imprese costruiscono modelli di governance dinamici
Il team tecnico è responsabile della precisione del sistema
Istituire un meccanismo di soccorso ex post
La legislazione nazionale stabilisce meccanismi di responsabilità
I regolatori algoritmici esercitano il potere di soccorso per conto di
Controversie e dilemmi (omesso)
Spiegare la controversia
Rivendicazioni generali e rivendicazioni limitate
Spiegazione del sistema e spiegazione del caso
Spiegazione prima e spiegazione dopo
Interpretazione umana vs. interpretazione automatica
Contenuto dei diritti dei diritti di interpretazione dell'algoritmo
Il grado di interpretazione dei diritti di interpretazione algoritmica
Requisiti temporali per i diritti di interpretazione dell'algoritmo
Requisiti per il diritto di interpretare gli algoritmi
guida pratica
Dichiarazione degli Stati Uniti sulla trasparenza e responsabilità algoritmica
Regolamento generale sulla protezione dei dati dell'UE (GDPR)
(1) Disposizioni chiave della governance algoritmica: l’articolo 22 del GDPR si oppone ai diritti basati esclusivamente sul processo decisionale personale automatizzato
(2) Diritto di interpretazione di versioni limitate e indebolite degli algoritmi: Introduzione al contesto GDPR 71
(3) Clausole sui diritti dei dati che rafforzano il diritto di interpretare gli algoritmi: prendiamo come esempio gli articoli 13-15 e 35 del GDPR
i "Pareri guida sulla regolamentazione dell'attività di gestione patrimoniale delle istituzioni finanziarie" del mio Paese