L’Intelligenza artificiale fa cose utili come scrivere finti commenti negativi ai ristoranti

Gli scienziati dell’Università di Chicago hanno messo a punto un sistema di auto-apprendimento che ha permesso a un programma di imparare a fare recensioni (positive e negative) ai ristoranti. Tutte finte come ovvio. Generando un sacco di nuovi problemi

500066274 Eaa52213cd
11 Settembre Set 2017 0830 11 settembre 2017 11 Settembre 2017 - 08:30
Tendenze Online

I ristoratori sono avvisati. Ora non ci sono solo i clienti delusi che potranno lasciare cattive recensioni. Ci sono anche i generatori automatici di commenti negativi per i ristoranti. Lo hanno creato dei ricercatori dell’Università di Chicago (a quanto pare, altrimenti sfaccendati), mettendo a punto una tecnologia di apprendimento automatico piuttosto convincente.

Il programma è stato “allenato”, come raccontano su Le Monde, “leggendo” milioni di commenti lasciati su siti di servizi (ad esempio, Yelp), scritti da milioni di persone. Con l’intelligenza artificiale di cui è dotato, il generatore ha imparato a copiare/imitare i commenti, riuscendo addirittura a modularli sulla base del tipo di servizio e addirittura del tipo di cucina (italiana, francese, cinese). E può anche decidere di lasciare recensioni ottime – non solo pessime. “Servizio meraviglioso, porzioni gigantesche e cotte alla perfezione, fresche e deliziose. Ci torneremo!”. Chi li legge, assicurano gli scienziati, non è in grado di distinguerli dai commenti espressi da utenti veri (e questo la dice lunga sull’originalità degli utenti veri). Anzi, spesso vengono giudicati utili e ricevono molti like e voti positivi.

Come sempre però, quando si affaccia una nuova tecnologia, si affacciano anche nuovi problemi. I commenti falsi, sia chiaro, sono sempre esistiti. Ma fino a questo momento erano scritti da persone pagate apposta per danneggiare (o esaltare) un prodotto o un servizio. Stavolta li possono fare delle macchine, a un costo minimo e soprattutto con scale diverse: cioè, enormi. Non solo: spesso per individuare i commenti “fasulli” i moderatori osservano non solo il contenuto, ma anche il ritmo con cui vengono emessi. Spesso, per capirsi, abbondano al momento del lancio sul mercato di un nuovo prodotto. Con l’intelligenza artificiale si possono anche programmare dei lanci contenuti ma inesorabili nel tempo, aggirando ogni sistema di guardia e di controllo.

Come si può fare allora per superare questo problema? Le piattaforme si sono già messe in guardia. Nuovi sistemi di controllo o di autenticazione degli utenti sono in vista, sostengono. Nel frattempo, chi desidera andare in un ristorante e mangiare bene come sempre dovrà affidarsi alle tecnologie offline. Cioè all’antico uso di chiedere consigli a “quelli del luogo”. Loro sapranno (se, si spera, non sono già dipendenti dalla rete).

Potrebbe interessarti anche