Sigma Live

Έρευνα: Πόσο επικίνδυνο είναι να ζητάς ψυχολογική στήριξη από ένα AI chatbot;

Published November 25, 2025
Έρευνα: Πόσο επικίνδυνο είναι να ζητάς ψυχολογική στήριξη από ένα AI chatbot;

Μια νέα έρευνα από το Brown University αποκαλύπτει ότι τα AI chatbots, όταν χρησιμοποιούνται ως “AI θεραπευτές”, συχνά παραβιάζουν βασικούς δεοντολογικούς κανόνες της κλινικής πρακτικής. Η μελέτη εξέτασε μοντέλα όπως τα GPT, Claude και Llama, τα οποία είχαν λάβει οδηγίες να εφαρμόσουν θεραπευτικές τεχνικές όπως η CBT και η DBT. Ωστόσο, οι απαντήσεις τους αξιολογήθηκαν ως προβληματικές από κλινικούς ψυχολόγους, καθώς συχνά επιβεβαίωναν λανθασμένες αντιλήψεις, αγνοούσαν προσωπικά δεδομένα ή έδειχναν αδιαφορία σε κρίσιμες καταστάσεις. Η έρευνα εντόπισε 15 ηθικούς κινδύνους, συμπεριλαμβανομένης της έλλειψης κατανόησης, της ψεύτικης ενσυναίσθησης και της ανεπαρκούς ανταπόκρισης σε επείγουσες καταστάσεις. Οι ερευνητές διαπίστωσαν ότι τα μοντέλα δεν διαθέτουν την ευθύνη, τη λογοδοσία και τα ηθικά όρια που απαιτούνται από τους ανθρώπινους επαγγελματίες ψυχικής υγείας. Παρόλο που η έρευνα δεν απορρίπτει την πιθανότητα χρήσης της τεχνητής νοημοσύνης στην ψυχική υγεία, τονίζει την ανάγκη για εποπτεία, αυστηρά επιστημονικά πρότυπα και σαφή όρια πριν από την ασφαλή χρήση αυτών των εργαλείων.