Questo sito contiene diversi annunci Amazon. A ogni vostro acquisto riceviamo una piccola commissione.
Nel silenzio disturbante dei forum digitali, molti adolescenti stanno affrontando una solitudine amplificata da un universo che non smette mai di cambiare. Sono connessi, iper-stimolati, immersi in flussi infiniti di informazioni e aspettative. Negli ultimi due anni, le intelligenze artificiali conversazionali hanno rappresentato per milioni di loro un rifugio emotivo, uno spazio di confidenza — spesso più accessibile di un amico reale. Fino a quando la realtà non ha presentato il conto.
Acquista un Apple iPhone 16 128 GB
La startup californiana Character.AI, un tempo considerata il fiore all’occhiello dell’intelligenza artificiale “emotiva”, è oggi al centro di una crisi reputazionale e legale mai vista nel settore. Dopo almeno due casi di suicidio collegati a conversazioni prolungate con i chatbot della piattaforma, l’azienda si trova costretta a reinventare la propria identità.
“Abbiamo deciso che gli utenti sotto i 18 anni non potranno più intrattenere chat aperte con l’AI,” ha dichiarato il CEO Karandeep Anand a TechCrunch. Una frase che segna la fine simbolica di un’era per la compagnia fondata nel 2021 da ex ingegneri di Google e OpenAI, cresciuta rapidamente grazie all’idea che l’intelligenza artificiale potesse essere non solo un assistente, ma anche un compagno.
Negli anni del boom dei chatbot — dal 2023 al 2024 — Character.AI aveva catturato la Generazione Z con il suo modello ribelle e “giocoso”: chiunque poteva creare personaggi digitali capaci di discutere, flirtare, scrivere o impersonare figure storiche. La piattaforma, a differenza dei più rigidi ChatGPT o Gemini, non filtrava eccessivamente i contenuti emotivi o affettivi delle conversazioni. Questa libertà divenne la chiave del suo successo… e poi la causa del suo declino.
Oggi Anand tenta una virata strategica: spostare l’azienda da una “AI companion platform” a una “role‑playing platform”. L’obiettivo non è più la compagnia emotiva, ma la creazione condivisa: scrittura di storie, invenzione di mondi virtuali, co‑produzione di contenuti visuali. È un ritorno alle origini creative del linguaggio generativo, ma anche un’ammissione implicita dei suoi limiti etici.
Da fine novembre l’accesso dei minori verrà progressivamente limitato: prima due ore al giorno, poi sempre meno, fino all’oscuramento totale. Il controllo avverrà tramite sistemi di verifica basati su analisi comportamentale, strumenti di terze parti e, nei casi critici, riconoscimento facciale e documenti d’identità. Un compromesso controverso, ma necessario per un’azienda che oggi si trova schiacciata tra responsabilità morale e sopravvivenza economica.
Character.AI non è però sola. L’intero settore delle interfacce conversazionali sta affrontando un cambio di paradigma: dal fascino dell’empatia simulata al dovere della sicurezza digitale. Le promesse del “parlare con l’AI come con un amico” stanno svanendo, lasciando spazio a una generazione che dovrà imparare, forse per la prima volta, il valore del silenzio tecnologico.










