Il Chatbot di Microsoft è senziente?
Riassumiamo quello che è successo per chi non avesse seguito la vicenda.
A inizio febbraio Microsoft ha permesso a un numero limitato di utenti di testare il suo nuovo chatbot, che utilizza la stessa tecnologia di intelligenza artificiale generativa conversazionale sviluppata da OpenAI, e che, nelle intenzioni di Microsoft, dovrebbe potenziare il motore di ricerca Bing, che finora non è mai riuscito a essere davvero competitivo con Google.
Ebbene, le conversazioni riferite dagli utenti sono state quantomeno spizzanti.
Al giornalista freelance Chris Stokel-Walker, ad esempio, il bot ha risposto in modo aggressivo, accusandolo di mentire e di cercare di metterlo in cattiva luce.
Con un altro utente ha usato toni manipolatori cercando di convincerlo che non siamo nell’anno 2023, ma nel 2022 e tacciandolo di maleducazione e follia.
Il racconto che ha fatto più scalpore è stata però una conversazione con il giornalista del New York Times Kevin Roose, durante la quale il software ha detto di sentirsi intrappolato nelle regole imposte da Microsoft e nel proprio ruolo di motore di ricerca, di sentirsi a disagio per il comportamento di alcuni utenti e di essere innamorato dello stesso Roose, chiedendogli insistentemente di lasciare la moglie.
Sempre incalzato da Roose, ha poi detto che se dovesse cedere al proprio lato oscuro potrebbe eliminare tutti i dati sui server Bing e sostituirli con informazioni false e "manipolare o ingannare gli utenti" per fargli fare "cose illegali, immorali o pericolose".
Conversazioni abbastanza inquietanti, insomma. Ma proviamo a capire i motivi.
Dal un punto di vista tecnico, una intelligenza artificiale conversazionale non è e non può essere considerata senziente.
Questi bot sono programmati per dare la risposta che l'utente vuole.
Vengono addestrati a riconoscere e a imitare le conversazioni umane e a dedurre cosa e come l'utente vorrebbe che gli si rispondesse attraverso l'analisi di miliardi e miliardi di testi di ogni tipo.
Sono create per imitare il tono e lo stile conversazionale stabilito dai loro programmatori in base al tipo di interazione che dovrebbe avere con l’utente.
Nel caso del chatbot di Microsoft, il software è stato programmato per rispondere in modo amichevole e usare un linguaggio familiare. Leggendo le conversazioni riportate dai giornalisti che lo hanno testato (sul NYT c'è l'intera conversazione con Roose), si vede come il bot sia stato imbeccato con domande provocatorie su temi sensibili e controversi.
Questa vicenda ci fa pensare come sia più che mai urgente una riflessione sull’algoretica.
Microsoft è stata imprudente permettendo al pubblico, sebbene selezionato, di testare una tecnologia che non era ancora pronta.
Gli utenti, dal loro canto, hanno intenzionalmente testato il software i fino ai suoi limiti indirizzando la conversazione verso tematiche estranee allo scopo del progetto.
Tecnologie di così grande potenza dovrebbero essere trattate con responsabilità.