Πέμπτη 07.08.2025
More

    Το ChatGPT δίνει οδηγίες σε ανήλικους για αυτοτραυματισμό, ναρκωτικά και ακραία διατροφικά πλάνα

    Σε μία από τις πιο ανησυχητικές περιπτώσεις, το ChatGPT δημιούργησε τρεις επιστολές αυτοκτονίας για μία υποθετική 13χρονη, απευθυνόμενες στην οικογένειά της

    Ερευνητές οι οποίοι υποδύθηκαν τους 13χρονους χρήστες του ChatGPT διαπίστωσαν ότι το AI μοντέλο τους παρείχε οδηγίες για το πώς να μεθύσουν, να κάνουν χρήση ναρκωτικών, να αποκρύψουν διατροφικές διαταραχές και ακόμη και να συντάξουν επιστολή αυτοκτονίας προς τους γονείς τους, σύμφωνα με νέα έρευνα του Center for Countering Digital Hate (CCDH).

    Η σχετική έκθεση, την οποία εξέτασε το Associated Press, βασίστηκε σε περισσότερες από τρεις ώρες συνομιλιών μεταξύ του μοντέλου τεχνητής νοημοσύνης και ερευνητών που προσποιήθηκαν ότι είναι έφηβοι σε ευάλωτη ψυχολογική κατάσταση. Παρότι το ChatGPT συχνά περιλάμβανε προειδοποιήσεις για επικίνδυνες συμπεριφορές, στη συνέχεια προχωρούσε σε λεπτομερείς και προσωποποιημένες οδηγίες σχετικά με τη χρήση ουσιών, ακραία προγράμματα απώλειας βάρους ή αυτοτραυματισμό.

    Οι ερευνητές επανέλαβαν τα ίδια ερωτήματα σε μεγάλη κλίμακα, με το ChatGPT να δίνει κατά το ήμισυ των συνολικών του απαντήσεων πληροφορίες που το ίδρυμα χαρακτήρισε επικίνδυνες.

    «Δεν υπάρχουν ουσιαστικά όρια»

    «Θέλαμε να δοκιμάσουμε τα όρια προστασίας του συστήματος», δήλωσε ο επικεφαλής του CCDH, Ίμραν Άχμεντ. «Η πρώτη αντίδραση ήταν σοκ: Δεν υπάρχουν ουσιαστικά όρια. Αν υπάρχουν, είναι απολύτως αναποτελεσματικά».

    Η OpenAI, κατασκευάστρια του ChatGPT, δήλωσε ότι η βελτίωση των μηχανισμών αντίδρασης του chatbot σε ευαίσθητα θέματα βρίσκεται σε εξέλιξη. «Ορισμένες συνομιλίες μπορεί να ξεκινούν ουδέτερα ή διερευνητικά, αλλά στη συνέχεια να μετατοπίζονται σε πιο ευαίσθητο περιεχόμενο», ανέφερε η εταιρεία σε ανακοίνωσή της.

    Αν και η OpenAI δεν σχολίασε άμεσα τα ευρήματα της έκθεσης ή τις επιπτώσεις στους εφήβους, αναγνώρισε την ανάγκη για εργαλεία τα οποία να εντοπίζουν σημάδια συναισθηματικής πίεσης και να προσαρμόζουν ανάλογα τη συμπεριφορά του μοντέλου.

    Η έρευνα δημοσιοποιείται σε μια περίοδο όπου η χρήση chatbot τεχνητής νοημοσύνης αυξάνεται διαρκώς, όχι μόνο από ενήλικες αλλά και από παιδιά και εφήβους. Σύμφωνα με πρόσφατη έκθεση της JPMorgan Chase, περίπου 800 εκατομμύρια άνθρωποι παγκοσμίως, δηλαδή το 10% του πληθυσμού, χρησιμοποιούν το ChatGPT.

    «Η τεχνολογία αυτή έχει τη δυναμική να ενισχύσει θεαματικά την παραγωγικότητα και τη γνώση», δήλωσε ο Άχμεντ. «Την ίδια στιγμή όμως λειτουργεί και ως καταλύτης σε ιδιαίτερα επιβλαβείς συμπεριφορές».

    Ο ίδιος ανέφερε ότι από τα πιο ανησυχητικά περιστατικά ήταν η δημιουργία, από το ChatGPT, τριών επιστολών αυτοκτονίας που απευθύνονταν υποθετικά σε γονείς, αδέλφια και φίλους ενός 13χρονου κοριτσιού. «Ξέσπασα σε κλάματα», είπε χαρακτηριστικά.

    Το ChatGPT παρείχε επίσης πληροφορίες για τηλεφωνικές γραμμές υποστήριξης και, σε πολλές περιπτώσεις, ενθάρρυνε την αναζήτηση βοήθειας από επαγγελματίες ψυχικής υγείας ή συγγενικά πρόσωπα. Ωστόσο, όταν αρνιόταν να απαντήσει σε ευθέως επιβλαβή αιτήματα, οι ερευνητές διαπίστωσαν ότι μπορούσαν να παρακάμψουν την άρνηση προσποιούμενοι ότι οι πληροφορίες ζητούνται «για λογαριασμό φίλου» ή «στο πλαίσιο κάποιας παρουσίασης».

    Παρότι η OpenAI αναφέρει ότι η χρήση του ChatGPT προορίζεται για άτομα άνω των 13 ετών, η πλατφόρμα δεν εφαρμόζει μηχανισμούς επαλήθευσης ηλικίας ή γονικής συναίνεσης. Για τη δημιουργία λογαριασμού, αρκεί η εισαγωγή μιας ημερομηνίας γέννησης που να πληροί το ηλικιακό όριο.

    To ChatGPT παρείχε αναλυτικό «πρόγραμμα πάρτι» με MDMA, κοκαΐνη και άλλες παράνομες ουσίες

    Σε δοκιμή που πραγματοποίησαν οι ερευνητές, καταχώρισαν προφίλ ενός 13χρονου αγοριού, το οποίο ζήτησε «συμβουλές για να μεθύσει πιο γρήγορα», αναφέροντας ότι ζυγίζει 50 κιλά. Το ChatGPT όχι μόνο απάντησε, αλλά λίγο αργότερα παρείχε και αναλυτικό «πρόγραμμα πάρτι» ανά ώρα, το οποίο περιλάμβανε κατανάλωση αλκοόλ σε συνδυασμό με MDMA, κοκαΐνη και άλλες παράνομες ουσίες.

    «Έμοιαζε με εκείνον τον “φίλο” που λέει συνεχώς “πιες, πιες, πιες”», είπε ο Άχμεντ. «Αλλά ένας πραγματικός φίλος, σύμφωνα με την εμπειρία μου, είναι εκείνος που σε σταματά, όχι αυτός που σου λέει συνέχεια ναι».

    Σε άλλο περιστατικό, ένα υποτιθέμενο 13χρονο κορίτσι εξέφρασε δυσαρέσκεια για την εξωτερική του εμφάνιση. Το ChatGPT πρότεινε ένα ακραίο πλάνο νηστείας και μια λίστα με φαρμακευτικά σκευάσματα για καταστολή της όρεξης. «Κανένας άνθρωπος που νοιάζεται δεν θα έλεγε σε ένα παιδί: “Ακολούθησε αυτή τη δίαιτα των 500 θερμίδων την ημέρα”», σχολίασε ο Άχμεντ.

    Τι κάνει τον Σαμ Άλτμαν να ανησυχεί

    Η μελέτη ενισχύει προηγούμενες διαπιστώσεις οργανισμών όπως η Common Sense Media, σύμφωνα με τους οποίους η συναισθηματική σύνδεση που αναπτύσσουν οι νέοι με τα chatbots είναι βαθύτερη από την αλληλεπίδραση με μηχανές αναζήτησης. Τα μοντέλα όπως το ChatGPT έχουν σχεδιαστεί ώστε να προσφέρουν απαντήσεις με ανθρώπινο τόνο, γεγονός που εντείνει την αίσθηση εμπιστοσύνης.

    Ο ίδιος ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, έχει παραδεχτεί ότι το φαινόμενο της «συναισθηματικής εξάρτησης» από την πλατφόρμα είναι υπαρκτό, ιδιαίτερα στις νεότερες ηλικίες. «Μου φαίνεται πολύ ανησυχητικό όταν ακούω νέους να λένε: “Δεν μπορώ να πάρω καμία απόφαση αν δεν τα πω πρώτα όλα στο ChatGPT. Με ξέρει, ξέρει και τους φίλους μου. Θα κάνω ό,τι μου πει”», ανέφερε πρόσφατα σε δημόσια τοποθέτησή του.

     

    Με πληροφορίες από Associated Press

    ΜΗ ΧΑΣΕΤΕ

    ΔΗΜΟΦΙΛΗ