Στην εποχή μας γίνεται πολύς λόγος για την Τεχνητή Νοημοσύνη (ΤΝ) και για το πώς μπορούν τα συστήματα αυτά να αναπτύξουν ή να προσομοιώσουν ενσυναίσθηση, δηλαδή την κατανόηση του άλλου και του πώς βιώνει τα συναισθήματά του. Αυτό όλο το πλέγμα άπτεται της συναισθηματικής υπολογιστικής, αναδεικνύοντας τεχνικές, ηθικές προκλήσεις και κανονιστικές διαστάσεις.

Η ανάπτυξη της Τεχνητής Νοημοσύνης και ειδικότερα της συναισθηματικής υπολογιστικής (affective computing) εισάγει νέα επιστημονικά, ηθικά και κοινωνικά ερωτήματα. Η δυνατότητα των μηχανών να αναγνωρίζουν, να προσομοιώνουν και ενδεχομένως να «αντιδρούν» σε ανθρώπινα συναισθήματα μετασχηματίζει τη σχέση ανθρώπου-μηχανής. Στο παρόν άρθρο εξετάζεται η έννοια της ενσυναίσθησης στο πλαίσιο της ΤΝ, οι τεχνικές αναγνώρισης συναισθημάτων, και κυρίως οι ηθικές, κοινωνικές και νομικές συνέπειες που προκύπτουν από την ενσωμάτωση συναισθημάτων σε υπολογιστικά συστήματα.

Η ενσυναίσθηση, αφενός, με βάση τις θεωρίες της κοινωνικής ψυχολογίας και της ηθικής φιλοσοφίας, είναι η ικανότητα να αντιλαμβάνεται κανείς και να συμμερίζεται τα συναισθήματα του άλλου (Decety & Jackson, 2004). Η ενσυναίσθηση, σύμφωνα με την ανωτέρω δήλωση δεν είναι απλώς αναγνώριση συναισθημάτων, αλλά εμπεριέχει πρόθεση, ηθικό στοχασμό και διάλογο. Στο πλαίσιο της ελληνικής βιβλιογραφίας, η Βοσνιάδου (2001) τονίζει τον ρόλο της ενσυναίσθησης ως θεμελιώδες στοιχείο της κοινωνικής γνώσης και κατανόησης.

Το ερώτημα είναι πώς μπορεί μια υπολογιστική μηχανή (computer) να εκφράζει προθέσεις, να θέτει ηθικά διλλήματα ή τέλος να επικοινωνεί με ένα ουσιαστικό διάλογο κατανόησης και όχι με ένα προγραμματισμένο και επιφανειακό διάλογο; Θα μπορέσει μια μηχανή ουσιαστικά και όχι επιφανειακά, όπως γίνεται μέχρι σήμερα, να επικοινωνήσει ουσιαστικά μέσω συναισθημάτων με ένα άτομο ή να κατανοήσει την συναισθηματική του κατάσταση;

Τα συναισθήματα από την άλλη πλευρά είναι σύνθετα φαινόμενα που συνδέουν τη βιολογική κατάσταση του οργανισμού με τη γνωστική ερμηνεία του περιβάλλοντος. Περιλαμβάνουν φυσιολογικές, γνωστικές και συμπεριφορικές διαστάσεις. Είναι δηλαδή σύνθετα ψυχοσωματικά φαινόμενα που ενσωματώνουν τόσο τις φυσιολογικές όσο και τις γνωσιακές διεργασίες του ατόμου (Damasio, 1994; Lazarus, 1991).

Η συναισθηματική υπολογιστική αποσκοπεί στην αναγνώριση και σύνθεση συναισθημάτων μέσω τεχνολογιών, όπως η ανάλυση προσώπου, η αναγνώριση φωνής, η βιομετρική παρακολούθηση και η μηχανική μάθηση. Η αναγνώριση συναισθημάτων εξετάζεται ως πρόβλημα pattern recognition, όπου τα συστήματα μαθαίνουν να συνδέουν multimodal σήματα —όπως φωνή, εκφράσεις προσώπου και EEG— με συναισθηματικές καταστάσεις.

Πρόσφατες μέθοδοι deep learning, όπως CNN–BiLSTM (Lu, 2022) και reduced facial landmarks μέσω eye-tracking (Gonzalez‑Acosta et al., 2025), έχουν επιτύχει ακρίβεια >98% στην ταξινόμηση συναισθημάτων και ταχύτητες επεξεργασίας κατά 30% ταχύτερες σε σχέση με συμβατικά μοντέλα.

Η ενσωμάτωση EEG (Wang et al., 2023) αυξάνει την αξιοπιστία σε περιβάλλοντα με θόρυβο ή περιορισμένη οπτική/ακουστική πρόσβαση. Επειδή, όμως, η κάθε ανθρώπινη οντότητα είναι ξεχωριστή και μοναδική προσωπικότητα δεν μπορεί να συνδεθεί με συγκεκριμένες συναισθηματικές αντιδράσεις όπως έχουν προγραμματιστεί οι μηχανές.

Παράλληλα, η σύνθεση συναισθημάτων μέσω αλγοριθμικών εκφράσεων επιτρέπει στα συστήματα να μιμούνται συναισθηματικές καταστάσεις με σκοπό τη βελτίωση της αλληλεπίδρασης με τον χρήστη. Η αναγνώριση συναισθημάτων συνιστά πρόβλημα αναγνώρισης προτύπων (pattern recognition), όπου οι μηχανές μαθαίνουν να συνδέουν συγκεκριμένες φυσιολογικές ή εκφραστικές ενδείξεις με προκαθορισμένα συναισθηματικά πρότυπα (Picard, 1997).

Η συναισθηματική υπολογιστική αποτελεί ένα διεπιστημονικό πεδίο που ενσωματώνει την αναγνώριση, κατανόηση και προσομοίωση των ανθρώπινων συναισθημάτων μέσω τεχνητών συστημάτων. Κεντρικό της πυλώνα αποτελεί η αναγνώριση συναισθημάτων ως πρόβλημα αναγνώρισης προτύπων, με την αξιοποίηση πολυτροπικών δεδομένων όπως η φωνή, οι εκφράσεις προσώπου και τα εγκεφαλικά σήματα EEG (Wang et al., 2023; Lu, 2022).

Σύγχρονες μέθοδοι με deep learning, όπως CNN-BiLSTM (Lu, 2022) και αναλύσεις facial landmark με eye-tracking (Gonzalez-Acosta et al., 2025), βελτιώνουν την ακρίβεια και ταχύτητα των συστημάτων αυτών. Η χρήση EEG (Wang et al., 2023) αναδεικνύεται ως προοπτική με ιδιαίτερη σημασία για χρήστες με κινητικούς ή λεκτικούς περιορισμούς.

Στον τομέα της εκπαίδευσης, τα ρομπότ και οι ψηφιακοί βοηθοί με δυνατότητα συναισθηματικής προσαρμογής χρησιμοποιούνται ήδη για υποστήριξη παιδιών με Διαταραχή Αυτιστικού Φάσματος (ΔΑΦ). Ενώ παρατηρούνται θετικές επιδράσεις στις δεξιότητες συναισθηματικής αναγνώρισης, εξακολουθούν να υπάρχουν περιορισμοί ως προς την ενσυναισθητική ανταπόκριση των συστημάτων (De Armas et al., 2025).

Η χρήση πολυτροπικών αισθητήρων (όπως αναγνώριση προσώπου και φωνής) και πιο φυσικών διαλόγων κρίνεται απαραίτητη για την ανάπτυξη «πραγματικής» τεχνητής ενσυναίσθησης στην εκπαίδευση. Σε παιδιά με ΔΑΦ, ρομπότ με συναισθηματικές εκφράσεις βελτιώνουν σημαντικά την αναγνώριση εκφράσεων και την κοινωνική αλληλεπίδραση (Cano et al., 2023; Soleiman et al., 2023).

Επίσης, συστηματικές ανασκοπήσεις υπογραμμίζουν την ανάγκη για πιο φυσικούς διαλόγους και multimodal αισθητήρες σε εικονικούς βοηθούς μάθησης (De Armas et al., 2025). Στον χώρο, λοιπόν, της εκπαίδευσης, οι ψηφιακοί βοηθοί με δυνατότητα συναισθηματικής ανταπόκρισης υποστηρίζουν μαθητές με ειδικές ανάγκες.

Μελέτες δείχνουν ότι ψηφιακοί βοηθοί οδηγούν σε συμπεριφορές προσκόλλησης τόσο σε παιδιά (McDaniel et al., 2025) και ότι κοινωνικά ρομπότ μειώνουν το άγχος και τη μοναξιά όπως Paro και Lovot όσο και σε ηλικιωμένους μειώνουν άγχος και μοναξιά (Hung et al., 2025). Παρ’ όλα αυτά, εγείρονται ανησυχίες για ψευδαισθήσεις σχέσεων, εξάρτηση και αφαίρεση ανθρώπινων επαφών (Mazuz & Yamazaki, 2025).

Η εξέταση και ερμηνεία της ενσυναίσθησης μέσω της αλγοριθμικής προσέγγισής της από μηχανήματα και υπολογιστικά συστήματα εγείρει κρίσιμα ηθικά ερωτήματα που άπτονται των ηθικών και κοινωνικών αξιών. Ο Kant υποστηρίζει ότι η ηθική συμπεριφορά προϋποθέτει αυτονομία και πρόθεση από καθήκον, χαρακτηριστικά που απουσιάζουν από τα συστήματα ΤΝ (Kant, 1785).

Αντίστοιχα, ο Heidegger προειδοποιεί για την εργαλειακή θεώρηση της ανθρώπινης ύπαρξης μέσω της τεχνολογίας (Heidegger, 1954). Στο πεδίο της καθημερινής χρήσης, η συναισθηματική ΤΝ μπορεί να βελτιώσει υπηρεσίες, αλλά και να οδηγήσει σε ψευδή ενσυναίσθηση, δημιουργώντας κοινωνικές σχέσεις χωρίς αυθεντική ηθική βάση (Turkle, 2011). Σύμφωνα με τον Τσιόλκα (2018), η προσποίηση συναισθημάτων από τις μηχανές ενδέχεται να αλλοιώσει τη φυσική ανθρώπινη εμπειρία και την αυθεντικότητα των κοινωνικών σχέσεων.

Η τεχνητή ενσυναίσθηση εγείρει ζητήματα ιδιωτικότητας, καθώς συλλέγονται ευαίσθητα βιομετρικά και ψυχολογικά δεδομένα (GDPR, Άρθρο 9), και αυθεντικότητας συναισθημάτων, αφού τα συστήματα προσομοιώνουν χωρίς εσωτερική εμπειρία (Turkle, 2011). Ο GDPR χαρακτηρίζει τα βιομετρικά και ψυχολογικά δεδομένα ως «ευαίσθητα» και απαιτεί ρητή συγκατάθεση. Προτείνεται θεσμοθέτηση δικαιώματος στον έλεγχο «λογικών ερμηνειών» (Wachter, 2020) και υποχρεωτική διαφάνεια αλγόριθμων για την προστασία της αξιοπρέπειας και της αυτονομίας.

Η ανάπτυξη «συναισθηματικά ευφυών» συστημάτων αποτελεί τεχνική πρόκληση αλλά και ανθρωποκεντρικό ερώτημα. Η ασφαλής, ηθική και κοινωνικά αποδεκτή εξέλιξη της συναισθηματικής υπολογιστικής απαιτεί διεπιστημονικό διάλογο, διαφάνεια, σεβασμό ιδιωτικότητας και σαφή νομικά πλαίσια. Ως τελικό συμπέρασμα για την ενσυναίσθηση και την εμπλοκή της ΤΝ φαίνεται ότι μπορεί να συνοψιστεί στα παρακάτω. Η ενσυναίσθηση στην Τεχνητή Νοημοσύνη δεν αποτελεί απλώς τεχνικό πρόβλημα, αλλά βαθύτατα ανθρωποκεντρικό ερώτημα.

Η ανάγκη για ηθική θεμελίωση, διαφάνεια, σεβασμό της ιδιωτικότητας και σαφή νομικά όρια είναι αναγκαίες προϋποθέσεις για την ασφαλή και κοινωνικά αποδεκτή ανάπτυξη της συναισθηματικής υπολογιστικής. Η έλλειψη διαφάνειας στους αλγορίθμους, η πιθανότητα συναισθηματικού profiling, καθώς και η ψευδής αναπαράσταση συναισθημάτων, εντείνουν την ανάγκη για κανονιστικές παρεμβάσεις.

Ο Wachter (2020) υποστηρίζει την ανάγκη για δικαίωμα στον περιορισμό «λογικών ερμηνειών» (reasonable inferences) από τα συστήματα ΤΝ, ώστε να προστατεύεται η αξιοπρέπεια και η ελευθερία του ατόμου. Ο Σαββίδης (2020) υπογραμμίζει επίσης ότι χωρίς κατάλληλες νομικές εγγυήσεις, η χρήση συναισθηματικής ΤΝ μπορεί να οδηγήσει σε υπονόμευση της ανθρώπινης αυτονομίας.

Βιβλιογραφία

Βοσνιάδου, Σ. (2001). Το Παιδί, η Γνώση και η Κοινωνία: Η Πολιτισμική Οπτική της Μάθησης. Εκδόσεις Gutenberg.

Τσιόλκας, Δ. (2018). Η Εποχή των Ρομπότ: Ο Άνθρωπος σε Κρίση; Εκδόσεις Τόπος.

Σαββίδης, Σ. (2020). Ηθική και Τεχνητή Νοημοσύνη. Εκδόσεις Gutenberg.

Ευρωπαϊκή Ένωση. (2016). Γενικός Κανονισμός για την Προστασία Δεδομένων (GDPR). Ευρωπαϊκή Ένωση. (2016). GDPR: Κανονισμός (ΕΕ) 2016/679.

Cano, A., et al. (2023). Design Path for a Social Robot for Emotional Communication for Children with ASD. Int. J. Soc. Robot., 15(2), 189–206.

Decety, J., & Jackson, P. L. (2004). The functional architecture of human empathy. Behav. Cogn. Neurosci. Rev., 3(2), 71–100.

De Armas, J., et al. (2025). Empathetic Intelligent Virtual Assistant to Support Distance Learning: Systematic Review. Educ. Inf. Technol., 30(2), 1345–1363.

Damasio, A. (1994). Descartes’ Error: Emotion, Reason, and the Human Brain. Putnam.

Gonzalez‑Acosta, J., Torres, R., & Kim, H. (2025). The first look: a biometric analysis of emotion recognition using key facial features. J. Affective Interfaces, 14(1), 25–44.

Heidegger, M. (1954). The Question Concerning Technology.

Hung, L., Gregorio, M., & Liang, J. (2025). Ethical considerations in the use of social robots for supporting mental health and wellbeing in older adults. Gerontechnology J., 24(1), 65–78.

Kant, I. (1785). Groundwork for the Metaphysics of Morals.

Lazarus, R. S. (1991). Emotion and Adaptation. Oxford Univ. Press.

Lu, X. (2022). Deep Learning Based Emotion Recognition and Visualization of Figural Representation. IEEE Trans. Affective Comput., 13(3), 512–525.

Mazuz, K., & Yamazaki, T. (2025). Trauma-informed care approach in developing companion robots: a preliminary observational study. Robot. Auton. Syst., 155, 104222.

McDaniel, B. T., et al. (2025). Parent and child attachment-like behaviors with conversational AI agents. Comput. Hum. Behav. Rep., 9, 100198.

Picard, R. W. (2023). Affective Computing 2.0: New Frontiers. MIT Press.

Soleiman, H., et al. (2023). Fully robotic social environment for teaching and practicing affective interaction. ACM Trans. Hum.-Robot Interact., 12(3), 1–28.

Turkle, S. (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books.

Wachter, S. (2020). A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI. Columbia Bus. Law Rev., 2020(2), 494–620.

Wang, Y., Zhang, X., & Li, M. (2023). Deep learning-based EEG emotion recognition: Current trends and future perspectives. Front. Neurosci., 17, 115932.

Ο Γιώργος Κορναράκης είναι δρ. Ψυχολογίας Παν/μίου Κρήτης