Un paradosso è un ragionamento che appare corretto ma che porta a una contraddizione, apparendo quindi contemporaneamente invalido.
Le intelligenze artificiali animate dagli algoritmi di machine learning mirano a ricreare il funzionamento del cervello umano ed è quindi comune che i modelli di apprendimento automatico incontrino paradossi all'interno dei dati, giungendo a conclusioni che appaiono contraddittorie.
Il paradosso di Simpson
Prende il nome da un matematico britannico, Edward Simpson, tale paradosso descrive un fenomeno in cui un trend molto evidente in diversi dataset scompare quando tali gruppi vengono fusi.
Tale paradosso è stato osservato nel 1973 all'interno delle graduatorie dell'Università di Berkeley. In buona sostanza era stato riscontrato che il tasso di ammissione femminile fosse molto inferiore a quello maschile in diverse facoltà.
Tale trend però di fatto si invertiva se si analizzavano i dati complessivi delle ammissioni dell'intero ateneo.
Questo si verifica perché una media semplice non tiene conto della rilevanza di un gruppo specifico all'interno di un dataset. Nel 1973 gran parte delle donne aveva tentato l'ingresso in facoltà con bassi tassi di ammissione in generale, meno del 10%, dunque la percentuale delle donne ammesse sembrava di molto inferiore a quella maschile.
Di contro gli uomini puntavano maggiormente su facoltà con tassi di ammissioni più alti, dove almeno il 50% dei richiedenti passava i test di ingresso.
Nel contesto del machine learning gli algoritmi non programmati a dovere possono incorrere nel medesimo errore.
Il paradosso di Braess
Usando l'esempio di una rete stradale congestionata il matematico tedesco Dietrich Braess affermava che anche aggiungendo una strada la situazione non sarebbe migliorata, anzi la nuova strada avrebbe potuto peggiorare la situazione.
Al contrario, chiudendo delle strade è possibile ottenere un traffico meno intenso e migliorare i tempi di viaggio.
Nell'esempio fatto da Braess i piloti delle macchine non hanno nessuno incentivo a cambiare la loro rotta. Braess segue la logica della game strategy, secondo cui un individuo non trarrebbe nessun vantaggio nel cambiare strategia quando tutti gli altri seguono quella standard.
I conducenti non andranno mai a sfruttare la nuova strada ma continueranno a seguire la massa che usa le vecchie strade, quindi la chiusura di una strada potrebbe essere d'aiuto per alleggerire la congestione.
Questo paradosso è molto importante per gli algoritmi di machine learning. Soprattutto negli scenari di multi-agent reinforcement learning tale situazione è utile al modello per premiare un agente in base a delle decisioni specifiche prese in un ambiente sconosciuto.
Il paradosso di Moravec
Lo scienziato canadese Hans Moravec nel 1980 formulò una paradosso sul modo in cui i modelli di AI possono acquisire delle conoscenze.
Il ricercatore affermava che, contrariamente al pensiero comune, i ragionamenti di alto livello richiedono meno calcoli di quelli inconsci di basso livello. Tale affermazione va dunque in contrasto con l'idea che una maggiore capacità computazionale porta a sistemi migliori e più intelligenti.
I modelli di AI possono eseguire eseguire task statistici e computazionali estremamente complessi o impossibili per la mente umana. Mentre compiti più semplici, come ad esempio il riconoscimento di un oggetto o di un volto, richiedono un addestramento molto lungo e complesso per le AI.
Al contrario, per l'essere umano è semplicissimo riconoscere qualcosa o qualcuno.
Osservando il paradosso da questo punto di vista è quindi possibile comprenderlo e anzi risulta essere del tutto veritiero e non contraddittorio.
Il paradosso dell'accuratezza
L'accuratezza non è sempre una buona metrica per classificare l'efficacia dei modelli produttivi. Questo perché un modello può avere un alto livello di precisione ma essere troppo grezzo per essere realmente utile.
Ad esempio in un dataset in cui l'incidenza della categoria A è dominante, rilevata nel 99% dei casi, l'algoritmo potrebbe prevedere che A avrà un'accuratezza del 99% anche se tale affermazione può essere abbastanza fuorviante in certi contesti. Ecco perché in determinati casi, come i modelli di classificazione binaria, la precision e la recall possono essere modelli di misurazione migliori.
La precision risponde alla domanda: "Quante istanze selezionate sono rilevanti?" mentre la recall: "Quante istanze rilevanti sono selezionate?".
Ad esempio nel caso di analisi delle emozioni umane la precision può risultare essere la scelta migliore. Se invece si sta analizzando un sistema di frodi la recall è l'approccio che potrebbe risultare più utile.
Il paradosso del Learnability-Godel
Si tratta di un paradosso pubblicato in un paradosso connesso all'abilità degli algoritmi di machine learning di apprendere delle teorie matematiche molto controverse ovvero i teoremi di incompletezza di Gödel.
In breve secondo Gödel la matematica è un linguaggio non adatto a capire certi aspetti dell'universo. In questi anni dei ricercatori dell'Israel Institute of Technology hanno inserito tali teorie all'interno di un modello di apprendimento automatizzato. Questo ha generato il cosiddetto "learnability limbo".
Gli studi hanno dimostrato che i problemi delle AI sono soggetti all'ipotesi formulate da Gödel. Questo significa che diversi problemi potrebbero essere irrisolvibili anche ricorrendo ad esse.
Tale paradosso però ha oggi pochissime applicazioni pratiche ma l'evoluzione delle future AI passerà molto probabilmente dall'esplorazione dei teoremi di incompletezza di Gödel.