Πρόσφατα, η OpenAI έκανε ένα τολμηρό βήμα με το GPT-5, εισάγοντας κάτι που ίσως αλλάξει ριζικά τη σχέση μας με την τεχνητή νοημοσύνη: την ικανότητα να λέει «Δεν ξέρω» και αρά δεν μπορεί να απαντήσει στην ερώτηση μας. Και εάν αυτό σας φαίνεται ένα κόλπο του… marketing, στην ουσία είναι ένα πολύ σημαντικό τεχνολογικό breakthrough.
Μέχρι σήμερα, τα μεγάλα γλωσσικά μοντέλα είχαν την τάση να απαντούν με απόλυτη σιγουριά, ακόμα κι όταν… δεν είχαν ιδέα. Το αποτέλεσμα; Τα γνωστά «AI hallucinations» — απαντήσεις που έμοιαζαν πειστικές αλλά δεν είχαν καμία σχέση με την πραγματικότητα. Η νέα προσέγγιση δείχνει μια στροφή προς τη διαφάνεια και την αξιοπιστία. Σύμφωνα με αναφορές, το GPT-5 πλέον μπορεί να παραδεχτεί την άγνοιά του αντί να επινοεί δεδομένα (τα οποία στο 99% των περιπτώσεων βασίζονταν στην αξιοποίηση εσφαλμένων δεδομένων). Μάλιστα, ένα viral post στο X από τον Kol Tregaskes τράβηξε την προσοχή του κόσμου, αποκαλύπτοντας screenshot όπου το chatbot απαντάει ξεκάθαρα: «Δεν ξέρω – και δεν μπορώ να το βρω με αξιοπιστία».
Σε μια εποχή όπου η υπερβολική αυτοπεποίθηση των ΑΙ μπορεί να οδηγήσει σε παραπληροφόρηση ή ακόμα και σε φιάσκα δημοσίων παρουσιάσεων, αυτή η «ταπεινότητα» μοιάζει σαν φρέσκος αέρας. Αν η OpenAI καταφέρει να το εξελίξει σωστά, θα μπορούσε να σηματοδοτήσει μια νέα εποχή, όπου οι συνομιλίες με chatbots θα γίνουν όχι μόνο πιο χρήσιμες, αλλά και πιο ειλικρινείς, με την Τεχνητή Νοημοσύνη ουσιαστικά να… μιμείται μια συμπεριφορά που να είναι πιο «ανθρώπινη».





