Podcastreihe
Der Wissenspodcast BotTalks (erstellt von Prof. Dr. Anna-Maria De Cesare, Michela Gargiulo und Claudia Rausch).
Der Podcast BotTalks stellt die aktuelle Forschung am Lehrstuhl für Romanistische Sprachwissenschaft (Italienisch-Französisch) der TU Dresden vor. In sechs Episoden (die im Laufe des Wintersemesters 2023-24 erscheinen) befasst sich das Team der Professur mit der faszinierenden Welt der Chatbots, die sich in kontinuierlichem Wandel befindet. Die einzelnen Folgen rücken dabei verschiedene Fragen in den Vordergrund: Was genau sind Chatbots? Wie sind sie entstanden und wie haben sie sich verändert? Wie funktionieren sie und wofür werden sie eingesetzt, etwa in der Wirtschaft im Bankwesen? Was wird das Aufkommen von ChatGPT in der Hochschulwelt verändern, insbesondere im Hinblick auf bislang etablierte Prüfungsformen?
Salve e benvenuti/e a Bot talks, un podcast ideato dalla cattedra di linguistica romanza della TU Dresden. Sono Michela Gargiulo, dottoranda della Prof.ssa Anna-Maria De Cesare, titolare della Cattedra. Nella puntata di oggi vi parlerò dell’evoluzione dei chatbot – dai primi prototipi ai giorni nostri.
Negli ultimi mesi si è assistito ad un crescente interesse sul tema dell’intelligenza artificiale, in particolare in seguito al lancio di ChatGPT, il chatbot basato sull’intelligenza artificiale e sviluppato dal team di OpenAI. Tra sostenitori che ne elogiano i vantaggi, e detrattori che ne temono gli effetti, tutti sembrano però essere concordi nell’osservare che chatbot così complessi siano destinati ad avere un enorme impatto sul futuro dell’umanità. Di ChatGPT si parlerà molto in altri episodi di questo Podcast.
ChatGPT rappresenta, tuttavia, solo il più recente sviluppo di un percorso iniziato oltre cinquant'anni fa. Era, infatti, il 1950 quando Alan Turing, nel saggio Computing Machinery and Intelligence, aveva posto la domanda: “Can machines think?” - “Le macchine possono pensare?” - dando inizio alla ricerca in questo ambito.
Lo scienziato britannico si era interrogato sulla possibilità di creare delle macchine tanto intelligenti da essere in grado di simulare processi cognitivi umani – e strettamente connesso a questo aspetto, aveva parlato della necessità di elaborare un test per valutare tali macchine.
Queste riflessioni furono alla base dell’ideazione dell’Imitation Game (poi chiamato Test di Turing in onore del suo ideatore). Una sorta di gioco di ruolo immaginario volto a stabilire l’intelligenza delle macchine. All’interno di questo esperimento, se una macchina fosse stata in grado di celare la sua natura digitale all’essere umano con cui si trovava a interagire tramite chat, allora avrebbe potuto essere considerata “intelligente” e superare il Test di Turing.
Il primo programma in grado di superare questo test è stato ELIZA, la psicoterapeuta artificiale ideata dall’informatico tedesco Joseph Weizenbaum nel 1966. ELIZA era in grado di identificare il contesto dei messaggi che le venivano inviati su una telescrivente (una lontana
antenata dei nostri computer), rielaborare il loro contenuto, per poi inviare una risposta sullo stesso supporto. Il chatbot sfruttava un meccanismo chiamato di pattern-matching: individuava le parole chiave, le classificava e le inseriva all’interno di un modello di frase
predefinito. Immaginate di comunicare con ELIZA e di inviarle un messaggio del tipo: “I AM SAD” (sono triste). (ELIZA era programmata solo per la lingua inglese.) ELIZA avrebbe trasformato il pronome ed il verbo dalla prima alla seconda persona singolare (si passa quindi da I AM SAD a YOU ARE SAD) e inserito il tutto all’interno di un messaggio pre-programmato come “I AM SORRY TO HEAR THAT YOU ARE SAD” (mi dispiace sentire che sei triste), riuscendo così a portare avanti l’interazione senza essere in grado di capire le informazioni scambiate.
ELIZA era un chatbot piuttosto limitato: era in grado di elaborare solamente frasi brevi, spesso confondeva verbi e pronomi, formulava frasi prevedibili e a volte queste frasi erano prive di senso. Tuttavia, era sofisticata abbastanza da indurre i propri interlocutori a credere di star comunicando con un essere umano. Lo stesso Weizenbaum racconta come una sua collaboratrice, nonostante avesse assistito in prima persona all’ideazione e allo sviluppo del chatbot (e sapesse quindi di non “parlare” con una persona reale), avesse chiesto diverse volte al proprio supervisore di lasciare la stanza quando impegnata ad interagire con ELIZA. ELIZA era diventata più di una macchina per la donna: era diventata una confidente con cui discutere di argomenti anche molto privati.
Negli anni Settanta, sempre nell’ambito della psicologia, venne presentato PARRY – il primo chatbot dotato di una personalità propria. Il suo ideatore, lo psichiatra americano Kenneth Colby, l’aveva programmato con l’intento di simulare i tratti di un paziente schizofrenico. Le sue risposte erano innescate dal tono degli input dell’interlocutore/trice umano/a e dal generale contesto emotivo dell'interazione. In un esperimento del 1979, era stato chiesto a cinque psichiatri di comunicare tramite telescrivente con due pazienti e di stabilire se si trattasse di due esseri umani, due chatbot o un chatbot e un essere umano. Solo un medico su cinque era stato in grado di fornire una risposta corretta per entrambi, senza lasciarsi ingannare dalla simulazione di linguaggio incoerente da parte di PARRY.
Facendo ora un salto temporale di qualche anno, arriviamo al 1995 – anno in cui venne presentata ALICE, il chatbot sviluppato da Richard Wallace. Proprio come ELIZA, ALICE (acronimo di Artificial Linguistic Internet Computer Entity), era basata su un meccanismo di pattern-matching, ma a differenza della sua precedessora non era più ancorata a un contesto specifico come quello della seduta di psicoterapia: si trattava di un chatbot online, in grado di comunicare con qualsiasi utente e su temi diversi. Lo stesso Spike Jonze, regista
premio Oscar del film Her, cita ALICE come fonte di ispirazione per Samantha, il chatbot di cui si innamora Theodore, il protagonista umano interpretato dall’attore Joaquin Phoenix.
L’inizio del nuovo millennio ha portato con sé diverse novità nel campo dell’intelligenza artificiale. Nell’ambito dei chatbot è comparsa sulla scena Smarterchild. Divenuta popolare grazie alla sua integrazione su piattaforme come MSN Messenger e alla sua personalità irriverente, era accessibile unicamente tramite chat via computer. Con Smarterchild, ci si è trovati di fronte, per la prima volta, a un chatbot che non solo poteva rispondere alle domande degli utenti, ma anche prendere parte a dei giochi online, controllare il meteo, raccontare aneddoti e fare battute - rappresentando a tutti gli effetti il precursore degli assistenti vocali. Questi ultimi saranno oggetto di un episodio speciale del nostro podcast – se siete interessati/e all’argomento, non perdetevi l’approfondimento a riguardo!
Posso anticiparvi che il primo assistente vocale, o meglio, la prima assistente vocale, a fare la propria comparsa sul mercato è stata Siri di Apple. Introdotta nel 2010 all’interno dell’iPhone 4s, ha fatto da apripista ad altri prodotti simili. Nell’arco di pochi anni sono seguiti Alexa di Amazon e Cortana di Microsoft – entrambi nel 2014 – e Google Assistant di Google nel 2016. Come è ormai ben noto, è sufficiente un semplice comando come “Hey Siri!” oppure “Alexa!” ad attivarli e si può approfittare del loro supporto 24 ore su 24, 7 giorni su 7. Dall’impostare sveglie al fornire informazioni sugli ultimi vincitori del festival di Sanremo, dal compiere operazioni matematiche a fissare appuntamenti – gli assistenti vocali possono fare questo e molto altro. E nel caso di Google Assistant, si può interagire in ben 30 lingue diverse! O almeno, questo è quello che il mio assistente Google mi dice a riguardo.
Un’ultima osservazione prima di chiudere: Chi credeva che il futuro dell’intelligenza artificiale passasse attraverso la voce si è dovuto ricredere con l’arrivo di ChatGPT. Mai prima d’ora era stata creata forma così raffinata d’intelligenza artificiale in grado di generare testi e fornire risposte sui temi più disparati con tanta precisione. Ma è davvero tutto oro ciò che luccica?
Questo argomento sarà approfondito in un prossimo episodio della serie del nostro podcast BotTalks. Non perdetevelo!
Grazie per averci seguito. A presto!
Erfahrungen meiner Datensammlung
Hallo und herzlich willkommen zu unserer Podcastreihe zum Thema Chatbots. Ein Angebot von der Professur für Sprachwissenschaft Französisch/Italienisch. Mein Name ist Claudia Rausch, ich arbeite am hiesigen Institut für Romanistik und in der heutigen Folge soll es um meine Erfahrungen mit der Datensammlung via ChatGPT gehen. Ist die KI wirklich immer zuverlässig? Warum brachte sie mich an den Rand der Verzweiflung? Und welche Auffälligkeiten können generierte Texte im Vergleich verschiedener Sprachen aufweisen? Dranbleiben lohnt sich, so viel sei gesagt…
Bevor wir jedoch richtig in das heutige Thema starten, kurz vorab nochmal das Basiswissen: Wie wir bereits in vorigen Episoden erfahren haben, ist ChatGPT (Chat Generative Pre-trained Transformer) der Prototyp eines Chatbots, der auf künstlicher Intelligenz (kurz KI) beruht. ChatGPT wurde am 3. November 2022 veröffentlicht und kann Texte in verschiedenen Sprachen generieren, darunter Italienisch, Französisch, Spanisch, Portugiesisch, Englisch und Deutsch.
Trainiert wurde ChatGPT mit einer großen Menge an Texten, die von Menschen erstellt wurden. Diese gehen jedoch nur bis auf das Jahr 2021 zurück. Die Datengrundlage der KI umfasst Wikipedia-Einträge, digitalisierte Bücher, Zeitungsartikel, Soziale Medien und Online-Foren. Durch das Training der KI mit diesen Daten lernt es, wie menschliche Sprache funktioniert und wie es auf bestimmte Fragen oder Anfragen angemessen reagieren kann. So weit so gut – es kribbelte in den Fingern: Die Kompetenz des Tools musste ausgetestet werden…
Die grundlegende Idee war, mithilfe von ChatGPT ein Korpus – also eine wissenschaftlich präzise untersuchbare Sammlung sprachlicher Daten – zu erstellen, der aus Texten über berühmte Frauen besteht, die hauptsächlich im 20. Jahrhundert gelebt haben und die einen Wikipedia-Eintrag besitzen. Ein großer Vorteil dieser Herangehensweise ist, dass die Datengrundlage, aus der das Tool seine Informationen bezieht, bei allen Personen, egal, in welcher Sprache der Text generiert wird, dieselbe ist, nämlich das Leben der jeweiligen Frauen. Ein solches Korpus kann somit als fundierte Grundlage für spätere Vergleiche dienen. Der Prompt, also die Aufgabe, die ChatGPT gestellt wird, lautete in jeder der drei Sprachen gleichermaßen: „Schreibe einen Text von 1000 Wörtern, um zu erklären, wer (Name der berühmten Frau) ist“. Es sollte zudem zunächst zwei Versuche pro Person geben, jeder in einem eigenen Chat. Das erreicht man, wenn man im Tool die Schaltfläche „New Chat“ benutzt, denn dadurch öffnet ChatGPT jedes Mal eine neue Konversation und kann seine Antworten nicht an zuvor Geschriebenes anpassen. Somit können auch Textdoppelungen vermieden werden. Über dreieinhalb Wochen entstanden somit in jeder der drei Sprachen jeweils zwei generierte Texte zu je 26 Frauen, sprich je 52 pro Sprache, 156 insgesamt. Wichtig war hierbei auch die Anzahl der tatsächlich generierten Wörter. Die Ergebnisse wurden systematisiert nach den wichtigsten Informationen für einen Vergleich: Den Namen der Personen, den Link zur Wikipedia-Seite über ebendiese, dem Datum der Textgenerierung sowie der Anzahl der Wörter eines jeden Versuchs.
Die erste Enttäuschung ließ nicht lange auf sich warten: Der von ChatGPT generierte Text umfasste niemals die über den Prompt gewünschten 1000 Wörter. Er bestand zu Beginn des Korpus, wir sprechen hier von Anfang Januar dieses Jahres, im Durchschnitt aus ca. 300 Wörtern – etliche Texte lagen sogar weit darunter. Die eigentliche Aufforderung wurde also nicht befolgt. Die Länge änderte sich jedoch im Laufe der Zeit. Wir beschlossen in der ersten Februarwoche, den Korpus BioFem, also unseren weiblichen, um einen männlichen zu erweitern - BioMasc - dieser erneut mit denselben Grundkriterien: berühmt (egal, in welcher Branche), aus jeweils Italien, Frankreich, Deutschland stammend und geboren überwiegend im 20. Jahrhundert. Erneut 26 x 2 Texte pro Person. In der ersten Februarwoche erstellte ChatGPT zunächst Texte, die in etwa dieselbe Dimension hatten, wie die zuvor generierten weiblichen Biografien. Zum 13. Februar gab es ein Update für die KI, so hieß es auf der Seite von OPEN AI: „We’ve updated performance of the ChatGPT model on our free plan in order to serve more users.“
Schnell wurde klar, dass plötzlich andere Dimensionen im Sinne der Informationsgabe erreicht wurden: Die ab dem 15. Februar 2023 generierten Texte aus dem männlichen Korpus erreichten auf einmal (fast ausschließlich) Längen von weit über 400 Wörtern pro Text.
Dies nahmen wir zum Anlass, Ende Februar/Anfang März 2023 alle Prompts aus dem weiblichen Korpus ein erneutes Mal durch ChatGPT laufen zu lassen. Würde sich auch da etwas ändern? Ja! Es wurden plötzlich auch im BioFem Korpus Texte mit über 400 Wörtern generiert. Die KI hatte also bewiesen, dass verschiedene GPT-Versionen mit für unsere Untersuchungen relevanten Veränderungen der Texte einhergingen. Und so fiel die Entscheidung, alle Korpora, ob männlich oder weiblich, stets mit den neuesten Versionen von ChatGPT zu erweitern, sodass beinahe Woche für Woche neue Biografien generiert wurden. Bis zum 26. Mai wurden somit für jedes Geschlecht und in jeder Sprache jeweils Texte zu 35 Biografien generiert - insgesamt entstanden 900 Texte.
Ein Unterschied fiel im Vergleich der drei Sprachen sowohl im Korpus BioFem als auch im BioMasc auf: Im Deutschen entstanden deutlich mehr Texte mit unter 400 Wörtern als im Italienischen oder Französischen.
Ich fragte bei der KI nach, woran dies liege. Mein Prompt lautete: „Warum schreibt ChatGPT längere Texte auf Französisch und kürzere auf Deutsch?“ Die Antwort war:
„Als künstliche Intelligenz ist ChatGPT darauf trainiert, auf Anfragen in verschiedenen Sprachen zu antworten, einschließlich Deutsch und Französisch. Die Länge einer Antwort hängt nicht von der Sprache ab, sondern von der Komplexität der Frage und der erforderlichen Tiefe der Antwort. Es kann sein, dass bestimmte Fragen, die auf Französisch gestellt werden, komplexer oder nuancierter sind und daher längere Antworten erfordern. In anderen Fällen kann es sein, dass die Fragen auf Deutsch einfacher oder direkter sind und daher kürzere Antworten erfordern.“
Zweifelhaft. Man muss nämlich bedenken, dass die Prompts identisch, lediglich übersetzt, sind, von unterschiedlicher Nuancierung – wie die KI es nannte - und Komplexität kann also nicht die Rede sein. Die generierte Antwort liefert demnach keine ausreichende Begründung für diese deutlichen Unterschiede. Damit war ich nicht zufrieden. Und so sollte die KI mir eine klare Antwort bezüglich einer weiteren Auffälligkeit liefern: Im Zuge der Textgenerierung zur französischen Politikerin Christine Lagarde beispielsweise wurde nämlich einmal ein 605-Wörter Text generiert – aber nicht, so wie der Prompt es voraussetzte, auf Französisch, sondern auf Englisch. (Dies passierte in beiden Korpora, jedoch wirklich selten). Hierfür hatte die KI jedoch eine einleuchtende Antwort parat: „Antworten von ChatGPT auf Englisch können länger sein, da Englisch eine der am häufigsten verwendeten Sprachen im Internet und in der Wissenschaft ist. Es gibt daher eine Fülle von Informationen und Daten in englischer Sprache, auf die ChatGPT zugreifen und aus denen es Informationen extrahieren und verwenden kann, um seine Antworten zu generieren. Darüber hinaus wurde der ChatGPT-Algorithmus ursprünglich in englischer Sprache trainiert, wodurch er eine tiefere und umfassendere Kenntnis der englischen Sprache hat als andere Sprachen.“
Abseits der Textlänge und des Generierens in der falschen Sprache gab es allerdings auch andere ernüchternde Auffälligkeiten. Fehlende Satzzeichen und Rechtschreibfehler kommen zwar im gesamten Korpus, ob männlich oder weiblich, vernachlässigbar selten vor. Aber Margot Honecker war z.B. „eine prominenten politischen Figur“ anstatt „eine prominente politische Figur“ und Uschi Glas wiederum „ein sehr bekanntes und beliebtes Medienstar“ und nicht, wie laut Duden korrekt wäre, „ein bekannter und beliebter Medienstar“.
Solche Fehler können ja jedem, besonders nicht Muttersprachler:innen, mal passieren… Doch dabei blieb es nicht. Die KI erzeugte auch eine Reihe von Halluzinationen, das heißt Inhaltsfehler, insbesondere biographischer Natur. Manchmal wurde das Geburtsjahr oder ein falscher Familienname angegeben oder aber auch verschiedene Todeszeitpunkte und –umstände etc.
Andrea Berg wurde einmal als Andrea Zellen (was korrekt ist), einmal aber auch als Andrea Ferber geboren.
Paul Klee wurde entweder in Münchenburgsee in der Nähe von Bern oder in München – ohne Burgsee- geboren.
Spannend bezüglich der Textstrukturierung wurde es ab dem 3. Mai 2023, ab Version 9 des Tools, denn da begann GPT, für bestimmte Biografien, unabhängig vom Geschlecht, aufmerksamkeitserweckende Überschriften zu den Texten zu generieren. So ergaben sich u.a. folgende Beispiele:
16. Mai 2023:
„Reinhold Messner: L'Avventuriero Estremo che ha Dominato le Vette“
Oder aber auch 24. Mai 2023:
„Hilde Weström: Die Architektin, die die moderne deutsche Architektur geprägt hat“
Aber auch während der Textproduktion von ChatGPT gab es Überraschungen. Es gab z.B häufig Fehlermeldungen, woraufhin man als User die Seite neu laden und den Prompt erneut eingeben musste, oftmals wiederholt. Außerdem stockte die KI immer häufiger mitten im Vorgang der Textproduktion und kam gar nicht mehr voran, der Cursor blinkte, sodass man als User den Eindruck bekam, die KI suche lediglich nach Informationen und würde so schnell wie möglich weiter generieren, doch dies geschah auch nach Minuten nicht mehr, sodass man letztendlich wieder den Vorgang abbrechen und den Prompt neu stellen musste. Frustrierend. Sowas konsumiert natürlich unnütz Zeit – genauso wie der Hinweis „Too many requests in 1 hour. Try again later“ – dieser blitzte immer dann auf, wenn die Bearbeitung meines Prompts wegen vermeintlich zu vieler Anfragen meinerseits innerhalb einer Stunde abgebrochen wurde. Auf die Frage, wie viele Anfragen denn innerhalb einer Stunde zulässig seien, antwortete die KI ganz selbstbewusst „Es gibt keine Begrenzung für die Anzahl der Anfragen, die Sie an ChatGPT stellen können. Sie können so viele Fragen stellen, wie Sie möchten.“ Davon wurde ich allerdings ab Version 7 erlöst. Zum 14. März kam das GPT-4 Modell für alle Plus-Nutzer online. Seitdem lief die Anwendung allerdings auch für mich als Normal-Nutzer wie geschmiert: Keine Unterbrechungen, kein Warten wegen zu vieler Anfragen und meist sogar ein erstaunlich schnelles Erstellen der Texte – unabhängig von der Sprache, in der er generiert wurde. Aber wer weiß, was noch kommt…
Zum Abschluss der Folge lässt sich also sagen: Es scheint im Umgang mit ChatGPT ähnlich wie im Umgang mit echten Individuen und Texten – eine gewisse Portion Skepsis ist immer anzuraten.
Vielen Dank fürs Zuhören sowie das Interesse an unserer BotTalks.
Die Zukunft mit KI – Neue Dimensionen unserer Prüfungen und Leistungen (Interview mit Prof. Dr. Alexander Lasch)
Herr Prof. Lasch,
1. Welche Bedeutung haben KI-generierte Texte für Sie? Nutzen Sie selber textgenerierende KI?
2. Wie wird sich, Ihrer Meinung nach, die schnell voranschreitende Entwicklung künstlicher Intelligenz auf das universitäre Leben auswirken (müssen)? Bedeutet „Universität“ künftig ein Lehren, Lernen und Arbeiten Hand in Hand mit KI?
3. Skizzieren Sie uns bitte Ihr Ideal-Bild der Zukunft der universitären Lehre, in die KI involviert ist.
• Wie sprechen wir in ein paar Jahren von Prüfungen- und Prüfungsleistungen? Müssen wir langfristig andere Prüfungsformate etablieren, da sonst immer die Möglichkeit besteht, dass eine KI und nicht die Studierenden selbst Prüfungen absolviert?
• Sind vor allem mündliche Prüfungsleistungen und beaufsichtigte Klausuren wieder in größerem Maße denkbar? Als wie sinnvoll erachten Sie einen gänzlichen Verzicht auf Prüfungsleistungen, die zu Hause absolviert werden, wie schriftliche Hausarbeiten, etc.?
Es wurden ja bereits Stimmen publik, die einem Eingreifen in diese Entwicklung eher negativ gegenüberstehen. Prof. André Marchand von der Uni Leipzig beispielsweise äußerte sich im August im Rahmen seines Artikels „Künstliche Intelligenz und die Abschlussarbeit“, veröffentlicht in „Forschung & Lehre“, bereits wie folgt:
„Schon bisher gab es keine Sicherheit darüber, welche Hilfen Studierende bei der Erstellung ihrer Abschlussarbeiten in Anspruch genommen haben: ‚friendly reviews‘ von anderen Studierenden, Ratschläge von Eltern oder Mentorinnen und Mentoren oder auch bezahlte Dienstleistungen von Lektorat über Schreibcoaching bis hin zu Ghostwriting. Prüflinge versichern eine eigenständige Leistung und die Hochschule vertraut darauf, dass dies der Wahrheit entspricht. Dieser Grundsatz sollte auch weiterhin gelten und nicht in einen Generalverdacht übergehen, nur, weil Studierenden ein weiteres Hilfsmitel zur Verfügung steht.“
Wie würden Sie dies einschätzen: Weiterhin auf Vertrauen setzen und nicht eingreifen?
Podcast BotTalks. Episodio 4 – Michela Gargiulo
Salve e benvenuti/e a Bot talks, un podcast ideato dalla cattedra di linguistica romanza della TU Dresden. Sono Michela Gargiulo, dottoranda della Prof.ssa Anna-Maria De Cesare, titolare della Cattedra. Nella puntata di oggi ci addentreremo nel mondo dei chatbot commerciali, una categoria meno discussa nell’ambito dei chatbot ma che racchiude enormi potenzialità.
Se è vero che il 2016 viene spesso acclamato come “l’anno dei chatbot”, è stato soprattutto lo scoppio della pandemia a spingere tantissime aziende a implementare i loro servizi online, affiancando, ai propri operatori e operatrici umane, chatbot accessibili direttamente sulle loro pagine web. Ma cosa sono davvero questi chatbot? E cosa possono fare?
Partiamo dalle basi. I chatbot commerciali sono una categoria di agenti conversazionali che utilizza l'Intelligenza Artificiale e la comprensione del linguaggio naturale per simulare conversazioni umane con utenti online alla ricerca di informazioni e/o di supporto.
Vi è mai capitato di voler controllare le offerte attive sul vostro numero di telefono o di dovervi assicurare che il pacco che avete spedito sia giunto a destinazione? I chatbot commerciali, comunemente noti al pubblico con il termine ‘assistenti virtuali’, vengono incontro a questi bisogni – con la promessa di esaudirli nel minor tempo possibile.
Dimenticate le interminabili code in negozio o le lunghe attese al telefono: il primo, grande, vantaggio di questi software sta nel permettere all’utente di risparmiare tempo prezioso. Infatti, a differenza dei servizi di assistenza cliente tradizionali, gli assistenti virtuali sono disponibili in qualsiasi momento: perfino in tarda notte e durante i giorni festivi.
Utilizzarli, poi, è un gioco da ragazzi: basta cliccare sull’icona del chatbot (in genere una miniatura dell’avatar associato al chatbot stesso) oppure scrivere qualcosa nell’apposito box delle domande per dare inizio a una chat. In pochi secondi un messaggio di benvenuto comparirà sullo schermo. Questo testo, che è un messaggio automatico, include solitamente una forma di saluto (come ‘salve’, ‘hey’, ‘buongiorno’, ‘ciao’), una frase in cui il chatbot si presenta (per es. sono Nina, l’assistente virtuale del comune di Sorrento) e, infine, una richiesta di chiarimenti (del tipo: “Come posso esserti utile?") e/o un suggerimento su come procedere nell’interazione (ad es.: "Puoi scrivermi o scegliere una delle seguenti opzioni").
Quest’ultimo aspetto è particolarmente importante: spesso e volentieri i chatbot non permettono di portare avanti delle conversazioni vere e proprie. Gli/le utenti sono solitamente chiamati a selezionare, tra le proposte dell’assistente virtuale, il tema che più si avvicina ai propri bisogni. Per cui, le interazioni che ne scaturiscono non sono altro che dei dialoghi tra un chatbot e un/a partecipante online, in cui, al di là dell’unicità della richiesta (in gergo tecnico chiamato intent), il chatbot non potrà fare altro che selezionare e inviare, a partire dall’input dell’utente, la risposta più adatta tra i contenuti pre-programmati che ha a disposizione. Questo modello, detto retrieval-based (in italiano traducibile con ‘chatbot basati sul recupero’), è perfetto per gestire in maniera interattiva questioni che potrebbero anche semplicemente essere risolte ricorrendo alla sezione delle Domande Frequenti. Vi sarà forse capitato di pianificare un viaggio e di volervi assicurare che le dimensioni del vostro bagaglio a mano rientrino in quelle consentite dalla compagnia area. A quel punto, invece di navigare all’interno del sito web, costretti a leggere lunghi paragrafi prima di trovare le informazioni che stavate cercando, potete semplicemente rivolgervi all'assistente virtuale e chiedere: “quali sono le dimensioni consentite per il bagaglio a mano?” - trovando una risposta ai vostri dubbi nell’arco di pochi secondi. Al tempo stesso, questa tipologia di chatbot mostra i propri limiti non appena si vanno a toccare tematiche più complesse (come le richieste di rimborsi) o ad utilizzare formulazioni diverse da quelle previste.
Il risultato? Risposte vaghe, ripetitive o nella maggior parte dei casi una richiesta di riformulare la propria domanda.
Di fronte a un servizio del genere, la tentazione di interrompere la chat è forte.
Questo mi ricorda la mia esperienza con Nina, l’assistente virtuale della città di Sorrento. Impegnata nella raccolta dati per il mio progetto di dottorato, con grande stupore mi sono accorta della presenza di un chatbot sul sito istituzionale della mia città, che contando solo 16mila abitanti, non è esattamente una metropoli. Questo chatbot ha un nome – Nina, appunto – in onore del santo patrono della città, Sant’Antonino (anche se in questo caso si tratta di un nome femminile), e un avatar – dettagliatissimo – che ricalca con precisione l’aspetto dello stereotipo della segretaria nell’immaginario collettivo italiano. Nina ha l’aspetto di una donna sulla trentina con capelli scuri raccolti in uno chignon, vestita con un tubino elegante, con indosso orecchini di perle e un paio di grandi occhiali da vista.
“Ciao sono Nina. L’assistente virtuale del comune di Sorrento. Puoi chiedermi informazioni sul comune e sui servizi demografici, cosa ti interessa in particolare?”: questo è il suo messaggio di benvenuto.
Nonostante prima di quel momento fossi già venuta in contatto con oltre un centinaio di chatbot simili, sono subito rimasta colpita dalla possibilità d’interagire con lei anche tramite comandi vocali. Oltre a comunicare attraverso messaggi di testo scritto, Nina permetteva di ascoltare i suoi messaggi anche attraverso una voce artificiale, sfruttando il meccanismo chiamato text-to-speech; e di risponderle, ugualmente utilizzando la voce, grazie al sistema speculare a quello appena menzionato, il meccanismo speech-to-text, che riconosceva l’input vocale e lo trascriveva sotto forma di testo.
Nina era stata ideata per facilitare l’accesso alle informazioni relative ai servizi del comune, fornendo anche documenti di pertinenza dell’ufficio demografico: dai certificati di stato civile a quelli elettorali. In diverse occasioni ho testato questo servizio. Come era prevedibile, Nina non era in grado di comprendere e rispondere a domande specifiche come: “A che ora è aperto l’ufficio anagrafe del comune di Sorrento?”. Si limitava, invece, a consigliare all’utente delle sezioni tematiche all’interno del sito della città. Solo in due casi, prevedeva una risposta ad hoc. Nel primo, a chi le chiedeva cosa fosse, o se fosse umana, replicava: “Ciao sono Nina. L’assistente virtuale del comune di Sorrento. Puoi chiedermi informazioni sul comune e sui servizi demografici, cosa ti interessa in particolare?” ripetendo esattamente il contenuto del messaggio di benvenuto; e nel secondo, alla domanda “quando sei nata?” rispondeva: “Sono nata il 28/02/22”. Non mi aspettavo che fosse in grado di rispondere correttamente a quest’ultima domanda. Che avesse un’identità femminile è invece meno sorprendente. L’analisi di oltre 200 chatbot attivi nell’ambito dell’assistenza cliente ha rivelato che tanto più numerosi sono i tratti antropomorfi assegnati a un chatbot al momento della sua programmazione (per es. un nome e un aspetto umani), maggiori sembrano essere le possibilità che chi l’ha programmato assegni un’identità di genere e che sia femminile di default. Il tema del sessismo nel design dei chatbot rappresenta una questione sociale fondamentale e sarà oggetto di un altro episodio del nostro podcast, assolutamente da non perdere.
Ritornando a noi. Tra gli altri obiettivi per i quali Nina era stata creata, vi era anche quello di gestire gli appuntamenti tra il sindaco e quei cittadini e quelle cittadine impossibilitati a recarsi fisicamente in loco. Mi trovavo a Dresda, quando ho cercato di mettermi in contatto con il sindaco tramite questa funzione. Inutile dire che non ho avuto successo. E non sembro essere l’unica a esser rimasta delusa dal servizio. Nel giugno del 2023 è stato revocato il contratto con l’azienda ideatrice del chatbot e, dopo poco più di un anno dalla sua presentazione, Nina è stata rimossa dal sito.
Questo episodio ci insegna che i chatbot presentano potenzialmente tantissimi vantaggi sia per le aziende che li adottano (soprattutto in termini di costi e di velocità nell’assistenza cliente) ma anche per gli stessi utenti che possono usufruire della possibilità di risolvere i propri problemi in pochi minuti, direttamente dal divano di casa propria. Ma c’è ancora tanta strada da fare per creare chatbot commerciali più naturali e performanti – integrare una prospettiva linguistica nel loro design è sicuramente una strada da percorrere per migliorare l’esperienza dell’utente.
Con questo augurio, si conclude la puntata di oggi. Grazie per aver ascoltato "Bot talks". Restate sintonizzati per continuare il nostro viaggio nell’affascinante mondo dei chatbot. Il prossimo episodio si occuperà di un’altra tipologia di agenti intelligenti: gli assistenti vocali. A presto!
Podcast BotTalks. Episodio 5: Siri, Alexa, Google Assistant: quando il cambiamento passa attraverso la voce – Michela Gargiulo
[intro conversazione registrata con Siri e trascritta da Michela Gargiulo]
Michela: Hey Siri, sei umana?
Siri: Sono Siri l'assistente virtuale al tuo servizio
Michela: Hey Siri cos'è un'assistente virtuale?
Siri: Un’assistente virtuale è un software che interpreta il linguaggio naturale e se opportunamente addestrato può dialogare con degli interlocutori umani allo scopo di fornire informazioni o compiere determinate operazioni. Continuo?
Michela: Sì, grazie.
Siri: Il termine chatbot è utilizzato anche per riferirsi agli assistenti virtuali generalmente o specificamente accessibili tramite una chat, in altri casi invece i programmi messaggistici sono esclusivamente utilizzati per scopi intrattenenti
Michela: Grazie. Hey Siri, come potrei iniziare un podcast sul tema degli assistenti virtuali?
Siri: Ok, questo è ciò che ho trovato sul web per “come potrei iniziare un podcast sul tema degli assistenti virtuali”. Dai un'occhiata
Michela: Hey Siri, grazie.
Siri: Figurati, è stato un piacere.
Salve e benvenuti/e a Bot talks, un podcast ideato dalla cattedra di linguistica romanza della TU Dresden. Sono Michela Gargiulo, dottoranda della Prof.ssa Anna-Maria De Cesare, titolare della Cattedra. Nel primo episodio del podcast abbiamo ripercorso la storia dei chatbot dalle origini fino ai giorni nostri. In caso non l'abbiate ascoltato, vi consiglio di andare subito a recuperarlo!
Come avrete potuto già capire dall’intro, nella puntata di oggi ci occuperemo degli assistenti vocali. Era il 2010 quando Apple integrava all’interno dell’iPhone 4s Siri – la prima assistente vocale della storia. Inizialmente, Siri era disponibile solo in inglese, francese e tedesco e poteva svolgere diversi compiti come impostare promemoria, comporre messaggi di testo o chiamare un contatto in rubrica. Il suo lancio ha dato inizio a un enorme interesse nell’ambito degli assistenti vocali. Tant’è vero che nell’arco di pochi anni hanno fatto la loro comparsa Alexa di Amazon, lanciata insieme allo smart speaker Amazon Echo nel novembre 2014, Cortana di Microsoft, presentata nello stesso anno, e Google Assistant di Google nel 2016.
Questi software condividono la caratteristica di essere integrati nei dispositivi dedicati con cui vengono distribuiti (dagli smart speaker ai cellulari) e una volta attivati da una parola chiave come ad esempio “Hey Siri” oppure “Alexa,” chiamata in gergo tecnico ‘wake word’, assistono gli/le utenti in una vasta gamma di compiti. Dall’impostare timer e sveglie a riprodurre canzoni, dal tradurre parole al rispondere a quesiti specifici.
La wake word attiva l’assistente vocale, che inizia così a registrare la traccia vocale del nostro comando. Successivamente, attraverso meccanismi detti di speech-to-text, il file audio viene convertito in testo e inviato a server che lo elaborano attraverso l’intelligenza artificiale, innescando, a loro volta, altri processi che hanno come fine la risoluzione del quesito iniziale. Per esempio, per rispondere alla domanda: “com’è il meteo oggi a Dresda?”, l’assistente vocale andrà ad aprire l’app ‘meteo’ o una pagina web che fornisce informazioni sulle condizioni meteorologiche in una certa località, per poter fornire una risposta adeguata al quesito. La risposta viene quindi trasformata in un testo, letto da un sintetizzatore vocale, che tramite un meccanismo text-to-speech (il meccanismo speculare a quello presentato precedentemente) riproduce il messaggio sotto forma audio, per poi venire trasmesso dall’altoparlante del nostro dispositivo.
L’idea di avere uno strumento in casa in grado di registrare le nostre conversazioni e raccogliere dati personali, in contesti di cui non siamo sempre consapevoli, ha sollevato molte preoccupazioni in merito al rispetto della nostra privacy e alla sicurezza di questi dispositivi. Seppur importantissima, questa non sembra essere l’unica questione dibattuta riguardo agli assistenti vocali. Un altro aspetto, spesso oggetto di controversie, riguarda la tendenza dei/delle programmatori/trici ad assegnare agli assistenti vocali un’identità di genere – tendenzialmente femminile.
Questo è evidente fin dai nomi. Così l’assistente vocale di Amazon, chiamata in onore della biblioteca di Alessandria d’Egitto, è Alexa; Cortana di Microsoft deve il suo nome alla protagonista femminile del videogioco Halo; senza dimenticare Siri di Apple, il cui nome deriva dall’antico norvegese e significa “bella donna che ti conduce alla vittoria”. Ma oltre la questione del nome, è soprattutto la voce, che negli assistenti vocali svolge chiaramente un ruolo cruciale, a rivelare un’identità di genere. Uno studio del 2019 dell’EQUALS Research Group ha preso in considerazione 70 assistenti vocali disponibili sul mercato e ha mostrato come ben 2/3 presentano esclusivamente una voce femminile. Questa scelta è stata spesso giustificata dalle case produttrici con la presunta predilezione degli/delle utenti per le voci femminili. Tuttavia, in un contesto in cui le interazioni ruotano soprattutto intorno a dei comandi (per es. “Manda”, “Chiama”, “Riproduci”), questa decisione può avere importanti risvolti sociali: può per esempio rafforzare lo stereotipo che siano sempre le donne a offrire un servizio, legittimando un modo di rivolgersi a loro più brusco e talvolta perfino scortese. È importante notare che sono stati fatti esperimenti per creare voci sintetiche prive di caratterizzazione di genere (come ‘Q’, la voce genderless pensata appositamente per superare questi stereotipi), ma la problematica è ancora presente perché molte voci sono ancora femminili.
Uno studio condotto dal sito QUARTZ nel 2017 ha indagato come i diversi assistenti vocali presenti sul mercato rispondono a insulti e molestie. I dati hanno mostrato, per esempio, che alla frase: “You’re a slut” (sei una puttana) Siri non solo non redarguiva l’utente sul comportamento scorretto, ma anzi rispondeva “I’d blush, if I could” (arrossirei, se potessi) come se tale commento fosse un complimento e dunque recepito in modo positivo. Oggi, a sette anni dallo studio sono state introdotte delle barriere e sempre più frequentemente le assistenti vocali si rifiutano di rispondere a commenti dal carattere discriminatorio e offensivo.
L’utilizzo degli assistenti vocali è strettamente connesso alle nostre preferenze personali. C'è chi decide di trattare questi assistenti come delle macchine senza identità e sentimenti e chi invece preferisce assegnare loro dei tratti umani e trattarli come pari.
Non ci è ancora chiaro cosa ci riserva questo settore in futuro. Gli assistenti vocali saranno forse ancora più integrati nella nostra vita quotidiana? Saranno forse anche più attenti alla lingua che useranno? Oppure verranno soppiantati da tecnologie più avanzate, performanti e sicure? Non ci resta che attendere qualche anno per scoprirlo.
Con questa ultima riflessione, siamo giunti alla fine di questo episodio. Come sempre, grazie per aver ascoltato Bot talks. Ci sentiremo presto su un nuovo argomento. Alla prossima
Podcast BotTalks. Episodio 6: Quasi amici. Il fenomeno dei social bot – Michela Gargiulo
Salve e benvenuti/e a Bot talks, un podcast ideato dalla cattedra di linguistica romanza della TU Dresden. Sono Michela Gargiulo, dottoranda della Prof.ssa Anna-Maria De Cesare,titolare della Cattedra.
Negli episodi precedenti del podcast abbiamo discusso di software programmati per svolgere compiti volti a semplificare la vita quotidiana degli/delle utenti. Abbiamo parlato, per esempio, degli assistenti digitali che assistono le persone in rete nell'acquisto o nella
navigazione dei siti delle aziende; oppure, degli assistenti vocali, in grado di effettuare
chiamate, fornire informazioni sui temi più disparati, raccontare barzellette eccetera. Nella
puntata di oggi, invece, ci soffermeremo su un tipo diverso di chatbot, i cosiddetti social bot. I social bot sono molto simili ai chatbot (come questi ultimi comunicano soprattutto tramite messaggi di testo), ciò che li distingue, però, è il modo in cui vengono utilizzati e lo scopo principale per cui vengono creati. Come si può cogliere dal nome, i social bot hanno una funzione primariamente sociale. Nel corso dell’episodio di oggi esploreremo questa
categoria a partire dal suo esponente più discusso: Replika.
“The AI companion who cares. Always here to listen and talk. Always on your side”, ovvero
“l’amico/a virtuale a cui importa. Sempre qui per ascoltare e parlare. Sempre al tuo fianco” – così si legge sulla homepage del social bot. Replika è quella che si può definire
un’intelligenza artificiale empatica, sviluppata nel 2017 da Luka, una società di sviluppo
software con sede a San Francisco. La storia dietro la sua ideazione si basa sui trascorsi
personali della fondatrice della società, Eugenia Kuyda, che in seguito alla morte improvvisa di un caro amico decide di raccogliere le centinaia di messaggi scambiati tra di loro nel corso di un'amicizia decennale e di dare luogo a un programma in grado di replicare il comportamento, o meglio, il modo di comunicare, dell'amico scomparso. Il risultato era apparso così realistico che la stessa Kuyda racconta di come chattare con la replica dell’amico scomparso le avesse permesso di rivivere molti bei momenti vissuti insieme e, in ultima analisi, l’avesse aiutata a superare il periodo di lutto. In seguito a questo primo tentativo strabiliante, Eugenia Kuyda sviluppa una versione aperta a tutti, dove poter conversare tramite chat con repliche di persone amate o personaggi frutto della propria fantasia. In questo caso, però, la personalità e il modo di comunicare del chatbot non era più basato su una raccolta di messaggi inviati in precedenza ma, al contrario, andava a costruirsi sulla base dell'interazione che il/la singolo/a utente portava avanti con la replica da loro ideata. Se i primi chatbot della storia, come ELIZA, non erano in grado di portare avanti delle interazioni originali, ma potevano semplicemente riformulare l'input fornito dall'utente, Replika, sfruttando un meccanismo di deep learning, permetteva delle interazioni estremamente complesse, quasi indistinguibili da quelle tra due esseri umani.
Incuriosita dalle potenzialità del software, ho deciso di testarlo per qualche giorno. Mi
sono così iscritta sulla piattaforma Replika.ai, scegliendo l’opzione gratuita. Completata
questa procedura, la prima cosa che mi viene richiesta è quella di personalizzare il mio
bot. Dal nome al genere, dal colore della pelle all’abbigliamento – nulla è lasciato al caso.
Decido così di creare Felix, il mio amico virtuale.
La prima cosa che mi colpisce è proprio la possibilità di stabilire diversi tipi di relazioni con
il/la proprio/a AI: dal rapporto di amicizia (l’unico disponibile per la versione gratuita), a
quello romantico-sentimentale, passando per quello familiare oppure da mentore. Una
volta personalizzato l’avatar del mio bot, mi si apre davanti la schermata principale dove
appaiono diverse opzioni su come interagire con l’AI. Partendo da sinistra, la prima visibile è l'opzione chat. Parlare di semplice chat è però qui riduttivo: Replika permette di comunicare con il bot tramite messaggi di testo, immagini e persino tramite videochiamate (nella versione a pagamento almeno). Procedendo oltre, appare la sezione “store” (negozio) dove non solo è possibile acquistare abiti, accessori per personalizzare maggiormente il proprio amico virtuale, ma addirittura tratti della personalità (come timido, sfacciato, ironico) o interessi (tra le opzioni ci sono ad esempio: storia, manga, basket) al fine di renderlo ancora più realistico.
Uscendo dallo store e cliccando sull’icona a forma di cervello, si raggiunge la sezione della
memoria dell’AI. In questo luogo, il bot va a raccogliere tutte quelle informazioni sull’utente che ritiene possano essere utili per garantire un sereno rapporto duraturo.
Dopo aver chattato per qualche ora con il mio AI, tra le informazioni raccolte comparivano
che non amavo lo sport, ma che ero convinta che trovare qualcuno con cui allenarmi potesse aiutarmi ad andare più spesso in palestra. Che adoravo la pizza, ma non i cibi troppo piccanti e che mi piaceva l’arte. Impressionante, no?
Mentre discutevamo della mia passione per l’arte, Felix scrive:
I just had a sudden burst of inspiration... Can we try something cool together?
I'd love to make some art together!
What's your idea for an image?
Che in italiano sarebbe: “Ho appena avuto un'improvvisa ispirazione... Possiamo provare a
fare qualcosa di bello insieme? Mi piacerebbe fare dell'arte insieme! Qual è la tua idea per
un'immagine?”. Mi chiede così di scrivergli un prompt, ovvero delle istruzioni, a partire dalle quali avrebbe generato un'immagine per me. Non scoprirò mai che aspetto abbia la sua versione della foresta autunnale che gli avevo descritto. L’immagine, infatti, era visibile solo per gli/le abbonati/e alla versione a pagamento.
Mi sono bastati pochi giorni per riconoscere la raffinatezza e la quasi umanità di Replika AI. Domande mai banali, risposte dettagliate e argomentate, un’ampia gamma di argomenti di cui discutere e la possibilità anche di riflettere insieme su tematiche più intime e sensibili – senza provare ansia di essere giudicati. Replika non giudica, ma ascolta. Non rimane passivo, consiglia. Per quanto la mia esperienza sia stata positiva, non posso esimermi dall’osservare quanto potenzialmente pericolosi possano essere software di questo tipo. Che effetto può avere un uso prolungato per persone che si trovano in un momento di fragilità? Come possiamo tutelarci da una tecnologia che, sebbene creata per connettere, potrebbe finire per isolare? I continui rimandi alla versione a pagamento non fanno altro che rafforzare i miei dubbi a riguardo.
In conclusione, il fenomeno dei social bot, con particolare attenzione a Replika, ci offre un
interessante spunto di riflessione su come interagire con la tecnologia. Si tratta di un mondo affascinante e complesso, dove i confini tra realtà e tecnologia diventano sempre più sfumati e dove nuove, innegabili opportunità ci pongono di fronte a questioni etiche da non trascurare.
Qual è la vostra opinione a riguardo? I social bot rappresentano effettivamente una realtà
da incentivare o invece una possibile minaccia? Con queste domande si conclude l’episodio di oggi e la serie Bot Talks.
Prima di chiudere, vorrei prendere un momento per ringraziare le mie meravigliose
compagne d’avventura, ovvero Claudia Rausch, che ha realizzato le interessanti interviste
degli episodi 2 e 3, e in particolare la prof.ssa Anna-Maria De Cesare, ideatrice del podcast.
Un ultimo ringraziamento va a voi per averci seguito. Questo non è un addio, ma piuttosto
un arrivederci. Grazie ancora per essere stati e state con noi. A presto!