Il TAR del Lazio non era contento della decisione algoritmica all’interno delle scelte amministrative, ma il consiglio di stato ha detto che è doveroso per l’amministrazione pubblica usare dei sistemi che hanno dei maggiori vantaggi. Considerando l’articolo 97 della costituzione è bene che ci siano questi algoritmi perché va sia nella direzione del buon andamento che della neutralità. Pensiamo alla graduatorie dei docenti che vengono fatte manualmente tutti gli anni. Da questo punto di vista super mega utile. Quando l’amministrazione non fa così si hanno atti amministrativi viziati e quindi non sono validi: amministrazione che commette eccesso di potere → quando una amministrazione pubblica adotta un provvedimento che ha il potere di adottare, ma lo fa in modo sbagliato per il caso specifico: come bocciare uno studente perché mi sia antipatico. Come ambiti abbiamo:

L’art 22 GDPR è l’unico articolo vigente che norma questo tipo di situazioni: vieta le decisioni automatizzate. Le persone hanno il diritto di essere valutata da un essere umano. La decisione automatizzata è tendenzialmente vietata. Fa riferimento al considerando numero 71 per andare a giustificare il perché sia vietato tutto ciò. Il considerando non ha valore legale vincolante. L’articolo 22 vieta decisioni automatizzate e profilazione, ma soprattutto quelle che producono effetti giuridici o che hanno un analogo impatto sul diretto interessato. Permette questo tipo di decisioni in tre casi specifici:

  1. consenso dell’interessato
  2. sono importanti per la stipula di un contratto, come per esempio il contratto del mutuo
  3. quando è previsto dalla legge → si da per scontato che quando il parlamento scrive la legge sia già stata bilanciata rispetto agli interessi messi in gioco.

Anche quando è permesso abbiamo comunque dei paletti che sono messi dalla normativa. Vale anche quando ho in gioco dati particolari (dati più sensibili in cui la normativa è più restrittiva) e posso solamente se c’è il consenso o se è previsto dalla legge e la legge deve avere come obiettivo la cura di un interesse pubblico rilevante (poi la legge deve andare a dire che cosa intende di preciso ovviamente). Collegati abbiamo altri 3 articoli interessanti: 13, 14, impongono che l’informativa all’interessato contenga informazione dell’esistenza e della logica e delle conseguenze del processo decisionale. Sono due articoli praticamente fotocopia, nel 13 i dati li da il soggetto interessato, nel 14 un terzo soggetto (l’interessato deve sapere da che fonte sono stati presi i dati). Ci interessa che se c’è una decisione automatizzata. Art 15 attribuisce il diritto di accesso a queste informazioni → diritto di chiedere una serie di informazioni che doveva dire all’inizio. Mentre i 13 e il 14 operano solamente all’inizio, il 15 da la possibilità di continuare anche in corso d’opera e da uno strumento utile per venire a conoscenza di tutte queste informazioni perché magari ci sono delle informazioni parziali all’interno della normativa. Abbiamo sempre delle misure di difesa e abbiamo sempre il diritto di chiedere l’intervento umano se necessario, perché questo magari può andare a tenere conto di parametri ulteriori che l’algoritmo non riesce a tenere conto.

Posso anche andare a richiedere la mia opinione o anche contestare la decisione. Quindi ha 3 tipi di metodi per proteggermi:

Il caso più famoso è quello della Buona Scuola con decine di migliaia di docenti da andare ad assegnare. E’ uscita la graduatoria fatta da un algoritmo, solo che alla fine il risultato fu disastroso. Alla richiesta di questi insegnanti di conoscere i meccanismi di conoscere i meccanismi del funzionamento, la risposta fu negativa. Ricordiamo che la regola algoritmica è dotata di piena valenza giuridica e sarebbe stato il caso che il cittadino sapesse esattamente come funzionasse il tutto. Deve essere trasparente come è stato impostato l’algoritmo essenzialmente. Per altro l’algoritmo deve avere una buona esaustività in termini algoritmici per evitare interventi umani su casi che non vengono trattati.

Il consiglio di stato pone tre condizioni per la finalità di garanzia:

Non abbiamo ad oggi una legge ad hoc, che secondo il giudizio di molti sarebbe utile, perché potrei specificare i casi in cui andare a fare ricorso con la decisione algoritmica. Noi attualmente abbiamo le norme del codice digitale, ma non sono super precise, solo la giurisprudenza ha casi e modi. Servirebbe una legge per fare chiarezza in tal senso e anche l’articolo 99(?) lo richiede.

Se si va nella direzione che dice il consiglio di stato , anche la gara di appalto, quando cerco chi sviluppa il software deve specificare che sia tutto poi libero e accessibile. Dobbiamo disciplinare meglio gli appalti sicuramente. Ho il diritto di dire la mia in tal senso.