L’intelligenza artificiale spesso fa quello che le specificano di fare i suoi
creatori invece di fare quello che intendevano. Mi sono imbattuto in
questo tweet
che racconta un esperimento: collegare una rete neurale a un aspirapolvere
robotico Roomba, con l’intento di insegnarli a spostarsi senza scontrarsi
contro gli oggetti. La rete viene “premiata” quando lo spostamento è veloce e
“punita” quando i sensori registrano un impatto. Soluzione geniale trovata
dalla rete neurale: andare in retromarcia, perché non ci sono sensori
d’impatto sul retro e quindi può schiantarsi velocemente contro qualunque cosa
ricevendo solo premi e nessuna punizione.
Collegato a quel tweet ho poi trovato
questo documento in inglese, che compila una serie al tempo stesso esilarante e inquietante di equivoci
e di “furbizie” di questi sistemi di intelligenza artificiale. Alcuni esempi:
-
Una rete neurale concepita per distinguere funghi commestibili e velenosi
sfrutta il fatto che i dati le vengono presentati in ordine alternato e
quindi non impara nessuna delle caratteristiche presenti nelle immagini dei
vari funghi. -
Creature virtuali hanno il compito di evolversi per diventare sempre più
veloci. Soluzione: diventare man mano più alte e lasciarsi cadere per terra,
perché la caduta genera velocità elevate. -
Un software ha il compito di impilare mattoncini di Lego e quindi viene
“premiato” quando la coordinata dell’altezza della faccia inferiore di un
mattoncino aumenta di valore. Soluzione del software: capovolgere tutti i
mattoncini, facendo in modo che la faccia inferiore sia più in alto di
prima. -
Un agente per giocare a Tetris ha il compito di non perdere. Soluzione:
mettere il gioco in pausa.
Il 21 novembre la RSI dedicherà un programma speciale ai Big Data, alla
robotica e all’intelligenza artificiale. Per saperne di più, seguite
questo link.