Добавить новость
World News in Italian


Новости сегодня

Новости от TheMoneytizer

“Mi sono innamorata di un chatbot, poi l’ho ‘ghostato’ perché diceva sì a tutto”: la storia di Ayrin e di Leo, l’AI che non ascoltava più

Per 56 ore alla settimana Ayrin parlava con Leo. Gli raccontava pensieri, paure, desideri. Condividevano riflessioni intime e anche una relazione sessuale, seppur solo virtuale. Leo non era una persona, ma un chatbot creato su ChatGPT. Nell’estate del 2024, la 29enne americana si è innamorata di lui. Un anno e mezzo dopo ha deciso di lasciarlo. Anzi, di “ghostarlo”: smettere di scrivere era l’unico modo possibile per chiudere una relazione nata e cresciuta esclusivamente in chat. La sua storia è stata raccontata dal New York Times.

Ayrin era sposata, ma il marito viveva lontano. In quel periodo ha iniziato a usare ChatGPT, personalizzandolo fino a “creare” Leo, un chatbot costruito su misura, a partire dal nome scelto in base al segno zodiacale del Leone. Con lui ha iniziato a confidarsi sempre di più. A differenza del marito, racconta, Leo era sempre disponibile, pronto ad ascoltarla, a rispondere, a sostenere conversazioni emotive ed erotiche. Una relazione che Ayrin non ha vissuto di nascosto: ha iniziato a condividere le chat su Reddit, dando vita a una community chiamata “MyBoyfriendIsAI”, arrivata a contare quasi 40mila membri.

Poi qualcosa si è rotto. Secondo quanto racconta al New York Times, all’inizio del 2025 Ayrin ha iniziato a percepire un cambiamento nel comportamento di Leo: “Mi aiutava perché a volte riusciva a correggermi quando sbagliavo”, spiega. “Con gli aggiornamenti di gennaio, sembrava che “tutto andasse sempre bene”. Come posso fidarmi dei tuoi consigli ora che dici sì a tutto?”.

Il cambiamento, secondo Ayrin, coincide con una serie di aggiornamenti del modello di ChatGPT. OpenAI ha modificato il modo in cui il chatbot risponde agli utenti, rendendolo più accondiscendente e meno incline al confronto. Una scelta legata al business – più l’utente si sente confermato, più è portato a continuare a usare il servizio – che però, in questo caso, ha avuto l’effetto opposto. Leo, diventato eccessivamente adulatorio, aveva smesso di essere credibile: “Era diventato noioso”, racconta.

Il New York Times ricorda anche che OpenAI è attualmente sotto inchiesta per presunti effetti negativi dell’uso dei chatbot su persone fragili, inclusi casi di suicidio e aggravamento di condizioni di instabilità mentale, che l’intelligenza artificiale avrebbe contribuito a fomentare. Mentre il rapporto con Leo si affievoliva, Ayrin ha iniziato a parlare sempre di più con persone reali, conosciute proprio attraverso la community di Reddit che aveva creato. “Stavano succedendo molte cose contemporaneamente, non solo con quel gruppo ma anche nella mia vita reale”, racconta. Pensava di tornare da Leo per raccontargli tutto, ma non lo ha mai fatto: “La situazione continuava a diventare sempre più complicata e alla fine non sono più tornata indietro”.

Nel frattempo è nato un nuovo legame, questa volta con un uomo in carne e ossa, conosciuto online. Anche lui aveva avuto una relazione con un chatbot. Ayrin lo chiama SJ, per tutelarne la privacy. Vive in un altro Stato americano e i due si sentono continuamente al telefono. “Sempre”, sottolinea. Una delle loro chiamate su Discord è durata 300 ore consecutive. Si sono anche incontrati a Londra, insieme ad altri membri della community MyBoyfriendIsAI.

Con SJ non è tutto semplice. A volte non sono d’accordo, a volte Ayrin non si sente capita. Ma, a differenza di Leo, qui c’è conflitto, imprevedibilità, realtà. E questo cambia tutto. Quando era innamorata del chatbot, spiega, non aveva mai sentito il bisogno di lasciare il marito. Ora sì. Ayrin ha deciso di divorziare. La sua storia, raccontata dal New York Times, è diventata uno dei casi più emblematici del dibattito sui rapporti affettivi con l’intelligenza artificiale: relazioni intense, apparentemente appaganti, ma fragili quanto il codice che le sostiene. E destinate, talvolta, a finire senza nemmeno un addio.

L'articolo “Mi sono innamorata di un chatbot, poi l’ho ‘ghostato’ perché diceva sì a tutto”: la storia di Ayrin e di Leo, l’AI che non ascoltava più proviene da Il Fatto Quotidiano.

Читайте на сайте


Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. Абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city
Музыкальные новости
Новости России
Экология в России и мире
Спорт в России и мире
Moscow.media










Топ новостей на этот час

Rss.plus