Έρευνα: Πόσο επικίνδυνο είναι να ζητάς ψυχολογική στήριξη από ένα AI chatbot;
Μια νέα έρευνα από το Brown University αποκαλύπτει ότι τα AI chatbots, όταν χρησιμοποιούνται ως “AI θεραπευτές”, συχνά παραβιάζουν βασικούς δεοντολογικούς κανόνες της κλινικής πρακτικής. Η μελέτη εξέτασε μοντέλα όπως τα GPT, Claude και Llama, τα οποία είχαν λάβει οδηγίες να εφαρμόσουν θεραπευτικές τεχνικές όπως η CBT και η DBT. Ωστόσο, οι απαντήσεις τους αξιολογήθηκαν ως προβληματικές από κλινικούς ψυχολόγους, καθώς συχνά επιβεβαίωναν λανθασμένες αντιλήψεις, αγνοούσαν προσωπικά δεδομένα ή έδειχναν αδιαφορία σε κρίσιμες καταστάσεις. Η έρευνα εντόπισε 15 ηθικούς κινδύνους, συμπεριλαμβανομένης της έλλειψης κατανόησης, της ψεύτικης ενσυναίσθησης και της ανεπαρκούς ανταπόκρισης σε επείγουσες καταστάσεις. Οι ερευνητές διαπίστωσαν ότι τα μοντέλα δεν διαθέτουν την ευθύνη, τη λογοδοσία και τα ηθικά όρια που απαιτούνται από τους ανθρώπινους επαγγελματίες ψυχικής υγείας. Παρόλο που η έρευνα δεν απορρίπτει την πιθανότητα χρήσης της τεχνητής νοημοσύνης στην ψυχική υγεία, τονίζει την ανάγκη για εποπτεία, αυστηρά επιστημονικά πρότυπα και σαφή όρια πριν από την ασφαλή χρήση αυτών των εργαλείων.
You Might Also Like
Επιστήμονες στις ΗΠΑ ανακάλυψαν πρωτεΐνη που επουλώνει επίμονες πληγές
Nov 18
WhatsApp: Εντοπίστηκε κενό ασφαλείας στην πολιτική απορρήτου της εφαρμογής
Nov 21
Πρωτοφανές κενό ασφαλείας στο WhatsApp - Ερευνητές χαρτογράφησαν 3,5 δισεκατομμύρια λογαριασμούς
Nov 21
WhatsApp: Εντοπίστηκε κενό ασφαλείας στην πολιτική απορρήτου
Nov 21