18.9 C
Cyprus
Τρίτη, 7 Οκτωβρίου, 2025
More

    Ο μέσος άνθρωπος δεν μπορεί πλέον να ξεχωρίσει αν μία φωνή είναι πραγματική ή παραγόμενη από την τεχνητή νοημοσύνη

    Σύμφωνα με τα ευρήματα μιας νέας μελέτης που δημοσιεύθηκε στην επιθεώρηση «PLoS One» διαπιστώνεται ότι όταν οι άνθρωποι ακούνε πραγματικές φωνές μαζί με αντίστοιχες φωνές που έχουν δημιουργηθεί από τεχνητή νοημοσύνη δεν μπορούν να αναγνωρίσουν με ακρίβεια ποιες είναι αληθινές και ποιες είναι ψεύτικες.

    Η εν λόγω μελέτη διαπίστωσε ότι ενώ οι «γενικές» φωνές AI που δημιουργούνται από το μηδέν δεν ακούγονται ιδιαίτερα πειστικές οι φωνές που έχουν «κλωνοποιηθεί» από πραγματικούς ανθρώπους τα λεγόμενα deepfake audio είναι εξίσου πιστευτές με τις αυθεντικές.

    Τι δείχνουν τα ευρήματα

    Οι συμμετέχοντες στη μελέτη άκουσαν 80 δείγματα φωνών (40 ανθρώπινες και 40 τεχνητές) και κλήθηκαν να διακρίνουν ποιες ήταν πραγματικές και ποιες παραγόμενες από AI. Μόνο 41% των «γενικών» φωνών AI θεωρήθηκαν ανθρώπινες. Όμως 58% των φωνών που είχαν κλωνοποιηθεί από πραγματικούς ανθρώπους ταυτίστηκαν λανθασμένα ως ανθρώπινες. Ακόμη και οι πραγματικές ανθρώπινες φωνές αναγνωρίστηκαν σωστά μόνο σε 62% των περιπτώσεων δηλαδή δεν υπήρχε στατιστικά σημαντική διαφορά στην ικανότητα διάκρισης πραγματικών από ψεύτικες φωνές.

    Τα ευρήματα έχουν βαθιές επιπτώσεις σε θέματα ηθικής, πνευματικών δικαιωμάτων και ασφάλειας. Αν εγκληματίες για παράδειγμα χρησιμοποιήσουν AI για να κλωνοποιήσουν τη φωνή κάποιου μπορούν ευκολότερα να παρακάμψουν φωνητικά συστήματα ταυτοποίησης τραπεζών ή να εξαπατήσουν συγγενείς και φίλους.

    Ένα χαρακτηριστικό περιστατικό αφορά τη Σάρον Μπράιτγουελ η οποία έχασε 15,000 δολάρια όταν πίστεψε ότι άκουγε την κόρη της να κλαίει στο τηλέφωνο, ζητώντας χρήματα για νομική βοήθεια μετά από «τροχαίο». «Δεν υπήρχε τίποτα που να με πείσει ότι δεν ήταν η κόρη μου», είπε η Μπράιτγουελ συγκλονισμένη από το πόσο ρεαλιστική ήταν η τεχνητή φωνή.

    Οι ρεαλιστικές φωνές AI μπορούν επίσης να χρησιμοποιηθούν για κατασκευασμένες δηλώσεις ή συνεντεύξεις πολιτικών και διασημοτήτων. Ήδη απατεώνες αντέγραψαν τη φωνή του πρωθυπουργού του Κουίνσλαντ στην Αυστραλία Στίβεν Μάλις για να προωθήσουν απάτη με Bitcoin. Οι ερευνητές τόνισαν ότι οι φωνές που χρησιμοποίησαν δεν ήταν καν ιδιαίτερα εξελιγμένες. Δημιουργήθηκαν με λογισμικό εμπορικής χρήσης και εκπαιδεύτηκαν με μόλις τέσσερα λεπτά ηχογράφησης ανθρώπινης ομιλίας.

    Related Articles

    ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

    εισάγετε το σχόλιό σας!
    παρακαλώ εισάγετε το όνομά σας εδώ

    Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.



    Latest Articles



    Διαβάστε το περιοδικό «ΚΙΝΗΤΗ CY»