© iStock
AI

Το βασικό σημάδι για να ξεχωρίσεις ένα βίντεο που είναι φτιαγμένο από AI

Ακόμη και τα πιο προηγμένα AI μοντέλα παραγωγής βίντεο, εμφανίζουν ασυνέπειες, τις οποίες κρύβουν οι επιτήδειοι ρίχνοντας την ποιότητα.

Μαζί με τον νέο φαντασμαγορικό κόσμο που ανατέλλει στην εποχή της Τεχνητής Νοημοσύνης, ανατέλλει και ένα νέο πεδίο για το ηλεκτρονικό έγκλημα και τα περιθώρια εξαπάτησης από επιτήδειους. H απειλή δεν αχνοφαίνεται – είναι ήδη εδώ.

Τα πρώτα ανησυχητικά αληθοφανή δείγματα στο ελληνικό feed εμφανίστηκαν τη χρονιά που διανύουμε, ενώ είναι σαφές ότι απέχουμε ακόμη από το μέγιστο της πιστότητας και της ακρίβειας που μπορούν να φτάσουν στο όχι μακρινό μέλλον τα AI μοντέλα παραγωγής οπτικοακουστικού υλικού, όπως τα OpenAI Sora και Runway Gen-3 Alpha.

Είδαμε πρόσφατα τον Υπουργό Οικονομικών να παροτρύνει τους πολίτες σε μία δήθεν επενδυτική ευκαιρία, έχουμε δει καθηλωμένο σε αναπηρικό αμαξίδιο τον Νίκο Γκάλη δήθεν λόγω αρθρίτιδας, έχουμε παρακολουθήσει εκατοντάδες βίντεο από δήθεν γιατρούς να δίνουν ιατρικές συμβουλές για παθήσεις, παραπέμποντας σε ύποπτες ιστοσελίδες.

Και όσο διατηρούμε ακλόνητη εμπιστοσύνη στον εαυτό μας ότι μπορεί να διακρίνει το πραγματικό από το κατασκευασμένο, ξεχνάμε ότι το μυαλό παίζει συχνά περίεργα παιχνίδια. Ακόμη και αν είσαι digital native. Μελέτη που δημοσιεύθηκε πέρσι (Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes) εξετάζοντας την ικανότητα ανίχνευσης των deepfake βίντεο σε δείγμα 110 ατόμων, έδειξε ότι οι άνθρωποι τείνουν να υπερεκτιμούν τις δυνατότητές τους στο συγκεκριμένο θέμα: περίπου 65.64% ακρίβειας πέτυχε το ανθρώπινο μάτι, σε σύγκριση με το 87-97% που πέτυχαν τα AI συστήματα ανίχνευσης.

Ούτε καν εκείνα δεν αποδείχθηκαν αλάθητα.

Η πικρή αλήθεια είναι ότι το τέλος αυτής της παρτίδας είναι προδιαγεγραμμένο: τα AI εργαλεία θα γίνουν τόσο πιστά στην κατασκευή της πραγματικότητας που θα φτάσουμε σε σημείο να αμφισβητούμε όσα βλέπουμε στην οθόνη μας. Μέχρι τότε, ωστόσο, έχουμε ένα καλό χαρτί στα χέρια μας, έστω για να πάρουμε αυτόν τον «γύρο».

Κακής ποιότητας βίντεο σημαίνει ύποπτο βίντεο

Ζούμε στην εποχή που ακόμη και ένα μέτριο smartphone διαθέτει αισθητήρες για νυχτερινή λήψη και αλγόριθμους βελτίωσης εικόνας. Στην εποχή που ακόμη και low budget μοντέλα διαθέτουν κάμερα 50MP, ίσως και παραπάνω. Κοινώς, τίποτα δεν μπορεί να δικαιολογήσει ένα βίντεο σημαντικά κακής ποιότητας που φέρεται να τραβήχτηκε πρόσφατα από μία συμβατική κατασκευή καταγραφής (και όχι π.χ. από σύστημα ασφαλείας).

Η χαμηλή ποιότητα εικόνας αποτελεί την πρώτη και πιο ισχυρή ένδειξη για ένα AI βίντεο, σύμφωνα με όσα μετέφερε στο BBC o καθηγητής πληροφορικής από το Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϊ, Hany Farid. Όπως εξηγεί, «ακόμη και κορυφαίοι μετατροπείς κειμένου σε βίντεο, όπως το Veo της Google και το Sora της OpenAI, εξακολουθούν να παρουσιάζουν μικρές ασυνέπειες», όπως στην υφή του δέρματος ή το σχήμα των μαλλιών, τις οποίες επιχειρούν να κρύψουν οι επιτήδειοι χαμηλώνοντας την ποιότητα του βίντεο.

Ακόμα περισσότερες υποψίες γεννιούνται όταν ένα βίντεο χαμηλής ποιότητας τυχαίνει να είναι και εξαιρετικά σύντομο (κάτω από 30 δευτερόλεπτα), όπως επισημαίνει ο καθηγητής πληροφορικής που εξειδικεύεται στην ψηφιακή εγκληματολογία.

«Στην πλειονότητα τους, τα βίντεο AI είναι πολύ σύντομα, ακόμη πιο σύντομα από τα τυπικά βίντεο που βλέπουμε στο TikTok ή στο Instagram», δηλώνει. Γιατί αυτό; Πρώτον, επειδή η δημιουργία προηγμένων βίντεο AI είναι δαπανηρή (τα περισσότερα μοντέλα παραγωγής οπτικοακουστικού υλικού έχουν μέγιστο όριο μερικά μόλις δευτερόλεπτα) και, κατά δεύτερον, λόγω του ότι όσο περισσότερο αυξάνεται ο χρόνος του βίντεο, τόσο αυξάνονται οι πιθανότητες να αποκαλυφθεί κάποια ασυνέπεια στα μάτια του θεατή, προδίδοντας ότι το αποτέλεσμα είναι κατασκευασμένο.

Θα κρατήσει αυτό το ελάττωμα των μοντέλων για πολύ; Σίγουρα όχι, απλώς στο ενδιάμεσο θα έχουν αναπτυχθεί και τα εργαλεία ανίχνευσης κατασκευασμένου υλικού.

Ακολουθήστε το OneMan στο Google News και μάθετε τις σημαντικότερες ειδήσεις.

Exit mobile version