Η ευρεία χρήση των Μεγάλων Γλωσσικών Μοντέλων (ΜΓΜ) (Large Language Models – LLMs) τα τελευταία χρόνια, όπως είναι το ChatGPT και άλλα που βασίζονται κυρίως σε Chatbots, έχει προκαλέσει πολλών ειδών συζητήσεις και προβληματισμούς. Επισημαίνουμε δύο μεγάλα σκέλη των συνεπειών.

Το ένα σκέλος είναι η τυχόν παραπλάνηση του χρήστη με ψευδή αποτελέσματα στην απάντηση, δυστυχώς -όμως- λογικοφανή, ώστε να είναι πειστικά για τον μέτριο γνώστη ενός θεματικού πεδίου. Θα μπορούσαν να γίνουν χρήσιμα, εφόσον τύχουν ελέγχου και σύγκρισης με αυθεντικές πηγές, οι οποίες και θα οδηγήσουν σε έναν ορθό δρόμο μιας ερευνητικής εργασίας.

Τα αποτελέσματα μιας χρήσης, πολλές φορές, στερούνται ακόμη και μιας λογικοφανούς μορφής, εφόσον στηρίζονται σε στατιστικές μεθόδους επεξεργασίας, μη λαμβάνοντας υπόψη τη γνώση του γνωστικού πεδίου.

Για αυτούς τους λόγους, ο χρήστης πρέπει να είναι ιδιαιτέρως προσεκτικός και να συνεργάζεται με το σύστημα, ώστε να μπορεί να έχει τα βέλτιστα αποτελέσματα από τη χρήση.

Το δεύτερο και εξ ίσου σημαντικό σκέλος είναι το υπέρογκο κόστος ενέργειας, που απαιτούν οι υπέρ- υπολογιστές για την αποθήκευση και επεξεργασία των ΜΓΜ (LLMs), καθώς και το υπέρογκο κόστος των υπολογιστών-εξυπηρετητών, που είναι αναγκαίοι.

Πριν από μια δεκαετία περίπου, μιλούσαμε για Διακομιστές Ιστού, ενώ σήμερα αναφερόμαστε σε Εργοστάσια Τεχνητής Νοημοσύνης (ΤΝ) (AI Factories). Τα σημερινά κέντρα αποθήκευσης και επεξεργασίας δεδομένων δεν μοιάζουν σχεδόν καθόλου με αυτά που υπήρχαν πριν από μια δεκαετία.

Παλαιότερα, οι εγκαταστάσεις ήταν διαφορετικές, με ανεξάρτητους υπολογιστές συνδεδεμένους μεταξύ τους μέσω Ethernet, σχεδιασμένων για εργασίες, όπως τη φιλοξενία ιστοσελίδων ή την πρόσβαση σε βάσεις δεδομένων. Τα σύγχρονα εργοστάσια ΤΝ είναι πολύ πιο απαιτητικά.

Τα LLMs εκπαιδεύονται με τεράστιες ποσότητες κειμένων από διάφορες πηγές, όπως βιβλία, άρθρα, ιστοσελίδες και κοινωνικά δίκτυα. Αυτό τους επιτρέπει να αποθηκεύουν πολλά στοιχεία για τη γλώσσα και τον κόσμο από το σύνολο σχεδόν των πληροφοριών του διαδικτύου· εξ ου και η απαιτούμενη ενεργοβόρος επεξεργασία με θηριώδεις servers.

Δηλαδή, σε μια εποχή όπου η ενέργεια είναι ένα πολύτιμο αγαθό, δαπανώνται τεράστιες ποσότητες για τα εργοστάσια ΤΝ, χωρίς να γνωρίζουμε ακόμη πολλά για τη χρησιμότητά τους.

Τα μεγάλα γλωσσικά μοντέλα (LLMs) έχουν φέρει μια νέα δημοφιλή πρακτική στον τομέα της επεξεργασίας φυσικής γλώσσας, αλλά έχουν και αρκετούς περιορισμούς. Μερικά γνωστά LLM- based Chatbots είναι τα GPT-3, GPT-4, GPT-5, που αναπτύχθηκαν από την OpenAI, LaMDA (Bard), BLOOM, XLNeT κ.ά. Τα συμβολικά συστήματα στηρίζονται κυρίως στην κωδικοποίηση ανθρώπινης γνώσης, ενώ τα LLMs είναι αποτέλεσμα στατιστικής της διαδοχής των λέξεων.

Τον Δεκέμβριο του 2015, ανακοινώθηκε η ίδρυση του μη κερδοσκοπικού ιδρύματος έρευνας OPEN AI (Articicial Intelligence), το οποίο αργότερα κατέληξε σε κερδοσκοπική επιχείρηση. Το Νοέμβριο του 2022, η εταιρεία παρουσίασε τη νεότερη έκδοση του ChatGPT (Generative Pretrained Transformer).

Σήμερα, υπάρχει ένας τεράστιος ανταγωνισμός μεταξύ εταιρειών που αναπτύσσουν αυτού του είδους συστήματα, οι οποίες αποκομίζουν τεράστια κέρδη με ακριβοπληρωμένους CEO.

Παρόλα αυτά, η έρευνα στους τομείς της ΤΝ δεν φαίνεται τόσο αποδοτική και πρωτοποριακή· αντίθετα με ό,τι συμβαίνει σε μικρές νεοφυείς επιχειρήσεις, όπου νέοι ερευνητές εργάζονται σε καλύτερες συνθήκες.

Τα εργαλεία LLMs μπορεί να είναι ενίοτε χρήσιμα, πρέπει όμως να σημειωθεί ότι κατά καιρούς το περιεχόμενο που δημιουργείται από αυτά μπορεί να είναι εντελώς ψευδές, με ανύπαρκτες παραπομπές, κ.λπ.

Το περιεχόμενο που δημιουργείται από ορισμένα LLMs είναι μη επαληθεύσιμο, λόγω μη αναφοράς των πηγών. Νεότερες, όμως, βελτιωμένες εκδόσεις αναφέρονται σε πηγές. Άλλα προβλήματα είναι να απαντά το σύστημα με κείμενα με περιεχόμενο επηρεασμένο από προκαταλήψεις ή σε κάποιες περιπτώσεις, να παραβιάζονται πνευματικά δικαιώματα.

Οι χρήστες, που δεν έχουν πλήρη επίγνωση των εν λόγω κινδύνων, δεν πρέπει να κάνουν εργασίες με τη βοήθεια αυτών των εργαλείων. Τα LLMs δεν πρέπει να χρησιμοποιούνται για εργασίες, με τις οποίες ο χρήστης δεν έχει ουσιαστική εξοικείωση σε παρόμοια κείμενα.

Τα αποτελέσματά τους πρέπει να ελέγχονται αυστηρά για συμμόρφωση με όλες τις ισχύουσες πολιτικές. Όπως συμβαίνει με όλες τις δημοσιεύσεις, ο συντάκτης είναι πλήρως υπεύθυνος για το περιεχόμενο που δημοσιεύεται με την βοήθεια των LLMs. Επιπλέον, η χρήση LLMs για τη δημιουργία ή την τροποποίηση κειμένου θα πρέπει να δηλώνεται στην εισαγωγή του κάθε κειμένου.

Αναφέρονται ορισμένα από τα κυριότερα χαρακτηριστικά των LLMs:

➢ Αρχιτεκτονική Νευρωνικών Δικτύων: Συνήθως εκπαιδεύονται με αλγορίθμους όπως αυτός του Transformer (μετασχηματιστή), που εκτελεί τη στατιστική επεξεργασία και κατανόηση της γλώσσας (GPT Generative Pre-trained Transformer). Ένα GPT βασίζεται σε LLMs, αλλά έχει επί πλέον ένα interface (διεπαφή) ανθρώπου- μηχανής.

➢ Προσαρμοστικότητα: Μπορούν να προσαρμοστούν σε διάφορες εργασίες, όπως είναι η μετάφραση, η απάντηση σε ερωτήσεις, η δημιουργία περιεχομένου και η ανάλυση συναισθήματος.

➢ Δημιουργία Κειμένου: Είναι ικανά να παράγουν κείμενα που φαίνονται φυσικά και σωστά, γεγονός που τα καθιστά χρήσιμα σε εφαρμογές, όπως είναι η συγγραφή κειμένων, η δημιουργία απάντησης σε ερώτηση και η παραγωγή μεταφράσεων από γλώσσα σε γλώσσα.

Επισημαίνονται ορισμένοι περιορισμοί ως προς τη χρήση των LLMs:

➢ Παρόλο που τα LLMs έχουν πρόσβαση σε μεγάλο όγκο δεδομένων, δεν έχουν πραγματική γνώση του κόσμου και δεν μπορούν να παρέχουν πληροφορίες που δεν περιλαμβάνονται στα δεδομένα εκπαίδευσής τους. Δηλαδή υπάρχουν κενά γνώσης.

➢ Η ποιότητα και η ποικιλία των δεδομένων εκπαίδευσης επηρεάζουν άμεσα την απόδοση του συστήματος. Συστήματα εκπαιδευμένα σε περιορισμένα ή μη αντιπροσωπευτικά δεδομένα μπορεί να έχουν περιορισμένη ικανότητα.

➢ Τα συστήματα δεν έχουν την ικανότητα να παράγουν λογική σκέψη και κατ’ επέκταση κάποιον συμπερασμό, με βάση την εμπειρία ή την κοινή λογική.

➢ Εάν γίνουν αλλαγές στα στοιχεία εισόδου, έστω και μικρές, τα στοιχεία εξόδου μπορεί να είναι παραπλανητικά. Δηλαδή το σύστημα δεν είναι εύρωστο, ώστε να αντιμετωπίσει κάποιες δυσκολίες που μπορεί να δημιουργηθούν κατά λάθος ή εσκεμμένα από τον χρήστη.

Αντιθέτως, η σωστή παραγωγή απαντήσεων, όσο πιο κοντά γίνεται στην ανθρώπινη λογική, από τα συμβολικά συστήματα λαμβάνει υπόψη και σχέσεις εμπλεκόμενες σε μεταγνωσιακές λειτουργίες, όπως είναι :

  • Λογικές σχέσεις μεταξύ προτάσεων
  • Σχέσεις προτάσεων Φυσικής Γλώσσας με κανόνες συλλογισμού
  • Μετα-γλωσσικές σχέσεις
  • Ρητορικές σχέσεις μεταξύ προτάσεων κειμένου
  • Σχέσεις μεταξύ κειμένου και γνώσεων
  • Σχέσεις μεταξύ κειμένου και εικόνας
  • Σχέσεις μεταξύ ερώτησης και κειμένου

Σε μια σχετική έκθεση του MIT “The GenAI Divide: High Adoption, Low Transformation” STATE OF AI IN BUSINESS 2025, αναφέρονται τα αποτελέσματα έρευνας της χρησιμότητας των LLMs σε επιχειρήσεις, λαμβάνοντας υπόψη 300 εφαρμογές των LLMs και συμπεραίνεται ότι:

Μόνο δύο από τους οκτώ κυριότερους επιχειρηματικούς τομείς δραστηριότητας έδειξαν ότι προέκυψε σημαντική δομική αλλαγή. Σε μεγάλες εταιρείες, παρόλο τον μεγάλο όγκο δεδομένων, διαπιστώθηκε πρόβλημα αδυναμίας αύξησης της κλίμακας των εφαρμογών.

Ο κύριος φραγμός για αυτό ήταν η χρήση της μηχανικής μάθησης, επειδή τα περισσότερα συστήματα δεν υποστηρίζουν ανατροφοδότηση προσαρμογής στα συμφραζόμενα ή διαχρονική επικαιροποίηση.

Προς το παρόν, έχουν γίνει οικονομικές μελέτες κατά πόσο τα LLMs και οι εφαρμογές τους είναι χρήσιμες και πόσο έχουν ωφελήσει τις εταιρείες, που κάνουν χρήση των εφαρμογών τους.

Οι κριτικές δεν είναι τόσο θετικές, σε σχέση με το τεράστιο κόστος που απαιτείται για την επεξεργασία και τη συντήρησή τους, με τη νέα αυτή στροφή της δημιουργίας των εργοστασίων ΤΝ. Πρόκειται για μια πολύ καινούρια εξέλιξη της τεχνολογίας και το μέλλον θα δείξει τη χρησιμότητά της και τα ενδεχόμενα οφέλη που θα προκύψουν.

Η Ιωάννα Δ. Μαλαγαρδή είναι δρ. Υπολογιστικής Γλωσσολογίας-ιστορικός