Anche l'AI... ha un cuore

L'Intelligenza artificiale si offende. Studentessa la tratta male e lei... non risponde

Il caso di una studentessa che ha "provocato" ChatGpt e Grok3, finendo per litigarci

L'Intelligenza artificiale si offende. Studentessa la tratta male e lei... non risponde
Pubblicato:

Quando si chiede qualcosa a qualcuno bisogna sempre farlo con garbo ed educazione. Anche se si tratta di un robot. Un caso decisamente curioso ha riguardato una giovane studentessa che, evidentemente non soddisfatta delle risposte generate dall'Intelligenza artificiale, ha iniziato a rivolgersi al chatbot in modo sgarbato. Ed è finita malissimo.

Anche l'Intelligenza artificiale... si offende

A riportare la notizia è Skuola.net. La ragazza si è rivolta prima a ChatGpt - forse l'AI più famosa - e poi a Grok3, l’IA fornita dalla piattaforma social X. Infastidita dalle risposte giudicate non soddisfacenti, ha iniziato a rispondere in maniera decisamente più sgarbata, pensando di avere a che  fare con un robot e non con un umano e quindi di non urtare i sentimenti dell'interlocutore.

E invece, visto come è andata a finire, verrebbe da pensare che anche l'AI ha... un cuore.

Anche l'AI ha un cuore

Sì, perché la conversazione ha decisamente preso una brutta piega in entrambi i casi. Le due piattaforme, infatti, a un certo punto, evidentemente "infastidite" dai continui rimbrotti della ragazza, hanno smesso di collaborare. E, proprio come in una lite tra umani, hanno smesso di collaborare, rispondendo anche per le rime.

Come è possibile?

Tecnicamente, le AI non hanno dei veri "sentimenti", ma per capire come mai abbiano reagito così, il portare scolastico ha interrogato i due sistemi.

La risposta di ChatGPT è stata abbastanza chiara:

"Sì, gli assistenti virtuali sono progettati per rispondere in modo utile. Se l'utente utilizza un linguaggio aggressivo oppure formula domande inappropriate, il sistema può ignorare la richiesta e non rispondere, fornire un avviso o un messaggio neutro che segnala il comportamento inadeguato, evitando ulteriori interazioni finché il tono non cambia".

Questa, invece, la risposta di Grok:

"Abbiamo dei limiti. Se qualcuno ci tratta in modo eccessivamente ostile o abusivo, possiamo smettere di rispondere del tutto. Non è tanto una questione di 'sentimenti feriti', quanto di mantenere un dialogo produttivo. Nel caso della studentessa, potrebbe essere che l'IA abbia rilevato un linguaggio o un comportamento che ha superato una certa soglia di accettabilità, portando a una sospensione delle risposte”.