La notizia è che Ty della Microsoft, un chatbot dotato di intelligenza artificiale, è stato spento perché replicava agli utenti di twitter inneggiando a Hitler o con frasi con contenuto razzista e omofobo. Come possiamo sapere che invece non era semplicemente ironico nei confronti degli utenti? Una intelligenza avrebbe potuto fare esattamente ciò che ha…