Close Menu
  • Ambiente
    • Animali
  • Attualità
  • Cultura
    • Misteri
    • Storia
  • Lifestyle
    • Bellezza
    • Cibo
    • Moda
    • Sesso
    • Viaggi
  • Salute
    • Scienza
  • Spettacolo
  • Sport
  • Web
CultWeb.it
  • Ambiente
    • Animali
  • Attualità
  • Cultura
    • Misteri
    • Storia
  • Lifestyle
    • Bellezza
    • Cibo
    • Moda
    • Sesso
    • Viaggi
  • Salute
    • Scienza
  • Spettacolo
  • Sport
  • Web
CultWeb.it
Home » Salute » Tecnologia » Chi usa ChatGPT tutti i giorni sbaglia di più (ma è convinto di essere un genio)

Chi usa ChatGPT tutti i giorni sbaglia di più (ma è convinto di essere un genio)

Uno studio rivela che gli esperti di AI sono i più convinti di essere nel giusto, anche quando sbagliano. Ecco i dettagli.
Francesca FiorentinoDi Francesca Fiorentino29 Novembre 2025
Facebook WhatsApp Twitter Telegram
Artificial intelligence
Artificial intelligence (fonte: Unsplash)

Hai presente quella sensazione di sicurezza totale quando ChatGPT ti dà una risposta? Ecco, forse dovresti preoccuparti. Un nuovo studio dell’Università di Aalto in Finlandia ha scoperto qualcosa di sorprendente: più usi l’intelligenza artificiale, più pensi di essere bravo, anche quando non lo sei affatto.

Il fenomeno si chiama effetto Dunning-Kruger, dal nome dei due psicologi che lo hanno studiato per primi. In pratica funziona così: le persone poco competenti in qualcosa tendono a sopravvalutarsi tantissimo, mentre chi è davvero esperto spesso sottovaluta le proprie capacità. È un meccanismo che funziona da sempre con gli esseri umani.

Ma quando entra in gioco l’intelligenza artificiale, le carte in tavola cambiano completamente. I ricercatori hanno notato che l’effetto Dunning-Kruger sparisce quasi del tutto quando si utilizzano chatbot come ChatGPT, anzi si capovolge. Tradotto: tutti, esperti e non, sopravvalutano quanto sono stati bravi dopo aver usato l’AI. E la cosa più strana? Chi si considera più competente in intelligenza artificiale tende a essere ancora più sicuro delle proprie capacità, anche quando sbaglia.

Lo studio, pubblicato sulla rivista Computers in Human Behavior nel febbraio 2026, ha coinvolto 500 persone che dovevano risolvere problemi di logica presi dal test di ammissione alla facoltà di Legge americana. Metà poteva usare ChatGPT, l’altra metà no. Risultato? Chi ha usato l’AI ha fatto meglio nei test, ma ha anche sbagliato completamente nel valutare quanto fosse stato bravo.

murale su Einstein
murale su Einstein (fonte: Unsplash)

Perché succede? La risposta sta in quello che Robin Welsch, informatico dell’Università di Aalto, chiama “scarico cognitivo”. In pratica, quando usiamo ChatGPT tendiamo a fidarci ciecamente della prima risposta che ci dà. I dati mostrano che la maggior parte degli utenti fa una sola domanda al chatbot e poi accetta la risposta senza verificarla o approfondire.

È come se delegassimo completamente il lavoro mentale all’intelligenza artificiale, senza più riflettere davvero su quello che stiamo facendo. Il problema è che questo ci impedisce di capire quando abbiamo sbagliato, perché saltiamo tutti quei passaggi di controllo e riflessione che normalmente ci aiutano a valutare quanto siamo stati bravi.

I rischi di questa situazione sono diversi. Prima di tutto, se continuiamo a usare l’AI senza mai mettere in discussione i risultati, la nostra capacità di pensare criticamente potrebbe indebolirsi. Diventiamo più bravi a fare le cose (grazie all’AI), ma perdiamo la consapevolezza di come le facciamo davvero.

Inoltre, se tutti pensano di essere più competenti di quanto non siano realmente, si rischia un clima in cui si prendono decisioni sbagliate con troppa sicurezza. E paradossalmente, chi conosce meglio l’intelligenza artificiale è il più a rischio, perché tende a fidarsi ancora di più dei risultati senza verificarli.

I ricercatori suggeriscono alcune soluzioni. Per esempio, gli sviluppatori di AI potrebbero programmare i chatbot per stimolare domande aggiuntive negli utenti, magari chiedendo: “Quanto sei sicuro di questa risposta?” oppure “Cosa potresti aver trascurato?”. L’obiettivo è spingere le persone a riflettere di più, invece di accettare passivamente le risposte.

Un’altra strada è quella proposta dalla Royal Society: l’educazione sull’intelligenza artificiale dovrebbe includere non solo l’aspetto tecnico, ma soprattutto il pensiero critico. Saper usare ChatGPT non basta: bisogna anche sapere quando dubitare di quello che ci dice.

Insomma, la prossima volta che usi l’intelligenza artificiale, ricordati di fare almeno un paio di domande in più. E soprattutto, non dare per scontato che la risposta sia sempre corretta. L’AI è uno strumento potente, ma il cervello che lo usa – il tuo – funziona meglio quando resta attivo e critico.

 

Condividi. Facebook WhatsApp Twitter Telegram Email

Potrebbero interessarti anche

Le varie colorazioni dell'Apple iPhone 17: Lavender, Mist Blue, Black, White, Sage

Hai un vecchio iPhone? Fai attenzione a Coruna: potrebbe rubarti tutto

7 Marzo 2026
Papa Leone XIV di ritorno dal Libano

Papa Leone XIV? Per il Time è un influencer tecnologico (anche se non è favore ai sermoni fatti con IA)

4 Marzo 2026
La creazione di Michelangelo fatta con un robot e una mano umana

L’Intelligenza Artificiale di Musk sta rovinando la vita dei cittadini di un paese del Mississippi: non dormono più

26 Febbraio 2026
Facebook X (Twitter) Instagram
  • Home
  • Chi siamo
  • Staff e redazione
  • Contatti
  • Disclaimer
  • Cookie Policy
  • Privacy Policy
© 2026 CultWeb.it proprietà di Digital Dreams s.r.l. - Partita IVA: 11885930963 - Sede legale: Via Alberico Albricci 8, 20122 Milano Italy - [email protected] | Foto Credits: DepositPhotos

Questo blog non è una testata giornalistica, in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 07.03.2001

Digita qui sopra e premi Enter per cercare. Premi Esc per annullare.