ΑΙ

Πώς θα καταλάβεις εάν μια εικόνα είναι φτιαγμένη με AI

Οι ανακλάσεις και τα ανθρώπινα χέρια είναι μερικά από τα χαρακτηριστικά που δυσκολεύουν ακόμη τις μηχανές παραγωγής εικόνων, αλλά στο μέλλον μόνο ένα εργαλείο AI αναγνώρισης θα μπορεί να διακρίνει τη διαφορά.

Δεν είναι η πρώτη φορά που διαδόθηκε deepfake υλικό, αλλά για τον ιστορικό του μέλλοντος η εικόνα του Πάπα Φραγκίσκου να κυκλοφορεί στους δρόμους με ένα κατάλευκο φουσκωτό μπουφάν του οίκου Balenciaga ίσως να αποτιμάται ως σημείο μηδέν για την εποχή της κατασκευασμένης αλήθειας, όταν πια θα είναι σχεδόν αδύνατο να διακρίνεις τη διαφορά ανάμεσα σε μια αληθινή φωτογραφία και μια εικόνα που παρήχθη από κάποιο λογισμικό.

Ήταν η πρώτη φορά που ο κόσμος πιάστηκε μαζικά στη φάκα:

Το στιγμιότυπο που διαδόθηκε σε όλο το ίντερνετ δεν ήταν παρά δημιούργημα του Midjourney, ενός προγράμματος αντίστοιχου του Dall-E που παράγει κατά παραγγελία εικόνες από γραπτές εντολές σε μηδενικό χρόνο. Πιθανότατα επειδή το σενάριο δεν ήταν δα και απίθανο, ίσως επειδή οι εκπρόσωποι της καθολικής εκκλησίας δε διακρίνονται για τη λεπτότητά τους, ελάχιστοι μπήκαν στη διαδικασία να ελέγξουν εάν είναι πραγματική η εικόνα, οπότε είτε την αναπαρήγαγαν είτε συνέχισαν να σκρολάρουν, μένοντας με αυτή την εντύπωση.

Η εκδοχή του Πάπα με το στυλάτο outfit έγινε απλά για πλάκα, αλλά πόσο αστείες θα είναι άραγε οι επόμενες εκδοχές, άμα πάρεις παράδειγμα από τα deepfake βίντεο που διακινούνται τον τελευταίο χρόνο σε TikTok και άλλες πλατφόρμες για τον πόλεμο στην Ουκρανία, με προπαγανδιστικό σκοπό;

Οι AI Generators εικόνων, όπως το Midjourney, το Stable Diffusion και το Dall-E, συνεχίζουν να εξελίσσονται, να διορθώνονται, και το πιο δύσκολο που έχουν να πετύχουν, να αποδώσουν πειστικά τα ανθρώπινα χαρακτηριστικά, είναι στη γωνία.

Τουλάχιστον τα εργαλεία που είναι διαθέσιμα για ευρεία χρήση, κάνουν ακόμη λάθη. «Είναι κάποια χαρακτηριστικά, που εντοπίζεται κατ’ επανάληψη ότι προκαλούν πρόβλημα στο AI, είναι όλες εκείνες οι ασυνέπειες και τα κατασκευάσματα που πρέπει να εξεταστούν εξονυχιστικά, όπως στο παιχνίδι “βρες τη διαφορα”», όπως ανέφερε στο AFP Fact Checker η Vincent Terrasi από την Draft & Goal, μια start up που διαθέτει λογισμικό εντοπισμού AI περιεχομένου σε πανεπιστήμια.

 

 

 

Ποια σημεία προδίδουν μια AI εικόνα

Σε γενικές γραμμές, οι AI Generators δουλεύουν ως εξής: τη στιγμή που πατάς το enter, δίνοντας μια γραπτή εντολή, εκείνα ανασυνθέτουν εκατομμύρια πίξελ από εκατομμύρια εικόνες, τα επιμέρους στοιχεία των οποίων έχουν ταξινομηθεί σύμφωνα με εκατομμύρια παραμέτρους. Σε αυτή τη χαοτική για το ανθρώπινο μυαλό διαδικασία, μέσα από αλλεπάλληλες αλληλουχίες προβλέψεων παράγεται ένα αποτέλεσμα σύμφωνο με εκείνο που «θα περίμενε να δει το μάτι».

Μόνο που κάποια σημεία παραμένουν να εμφανίζουν προβλήματα, στη λογική του glitch:

  • Τα ανθρώπινα χέρια. Το δεύτερο πιο σύνθετο ανθρώπινο μέρος (μετά το πρόσωπο) παραμένει να μπερδεύει τα AI μοντέλα, οδηγώντας σε παραπάνω δάχτυλα και παραμορφωμένες παλάμες, κάτι το οποίο συνέβη και στη viral εικόνα του Πάπα Φραγκίσκου.
  • Οι ανακλάσεις. Κοίταξε διεξοδικά καθρέπτες, σκιές, γυαλιά, επιφάνειες νερού, όπως και «με ένα ζουμ το μάτι προκειμένου να παρατηρήσεις την κόρη, όπου κανονικά πρέπει να υπάρχει αντανάκλαση», όπως επεσήμανε η Terasi στο AFP Fact Checker.
  • Οι ασυμμετρίες. Ενδέχεται τα πρόσωπα να έχουν δυσανάλογο μέγεθος και τα αυτιά ή τα μάτια να είναι διαφορετικού μεγέθους.
  • Μαλλιά και δόντια. Άμα δεν είναι πειστική η υφή και το περίγραμμά τους, είναι ένδειξη για AI εικόνα.
  • Μπερδεμένες λέξεις. Παρατήρησε αν υπάρχουν στην εικόνα πινακίδες, logo ή άλλα αντικείμενα με γράμματα, διότι τα εργαλεία αυτά συχνά παράγουν ακατάληπτες λέξεις, όπου εντοπίζουν ότι χρειάζεται κείμενο.
  • Λάθος στο φόντο. Οι εικόνες που έχουν παραχθεί από αλγόριθμο ίσως εμφανίζουν θολά σημεία ή παραμορφωμένες πληροφορίες, ειδικά στο φόντο. Η λεπτομέρεια αυτή ίσχυε και στην περίπτωση των fake εικόνων από τη σύλληψη του Trump, που διακινήθηκαν πρόσφατα.

Κι αν τίποτα από αυτά δε φαίνεται περίεργο;

Όπως συμβαίνει στα παιχνίδια, τις εφαρμογές αλλά και κάθε προϊόν λογισμικού, οι επόμενες εκδόσεις διορθώνουν τα λάθη των προηγούμενων. Όπως τόνισε στο AFP Fact Checker η Annalisa Verdoliva, καθηγήτρια σε πανεπιστήμιο της Νάπολης, «οι μέθοδοι της AI παραγωγής όλο και βελτιώνονται, με αποτέλεσμα να εμφανίζουν όλο και λιγότερα σφάλματα στη σύνδεση, οπότε δε θα έλεγα ότι τα οπτικά σημάδια είναι ικανό κριτήριο για να βασιστούμε σε βάθος χρόνου».

Άμα η πιστότητα φτάσει σε επίπεδα που να μην είναι αναγνωρίσιμες οι διαφορές από ανθρώπινο μάτι, τότε τι μένει;

Πρώτον, το ιστορικό της εκάστοτε εικόνας στο ίντερνετ: όπως λένε οι ειδικοί, ένα σημαντικό στοιχείο κρύβεται στην πρώτη φορά που ανέβηκε η εικόνα στο διαδίκτυο, κάτι που μπορείς να βρεις με τη χρήση του Google Lens ή άλλων εργαλείων αντίστροφης αναζήτησης εικόνων. Όπως δείχνει μέχρι τώρα η εμπειρία, υπάρχει μεγάλη πιθανότητα το πρώτο post να διευκρινίζει ότι πρόκειται για υλικό παραγμένο από αλγόριθμο είτε η αναζήτηση αυτή να αποκαλύψει τις πηγές απ’ όπου αντιγράφηκαν στοιχεία κατά την παραγωγή της εικόνας, όπως το φόντο.

 

Και δεύτερον, τα AI προγράμματα ελέγχου που αναπτύσσονται παράλληλα: κατά τραγική ειρωνεία, μελλοντικά η μόνη αποτελεσματική άμυνα για να μην πέφτουμε θύματα απάτης από έναν αλγόριθμο θα προσφέρεται στο ανθρώπινο είδος από έναν άλλον αλγόριθμο. Προγράμματα που ανήκουν γενικά στην κατηγορία των GAN Detectors, όπως το Hugging Face, δουλεύουν με μεθόδους μηχανικής μάθησης. «Συλλέγεις έναν όγκο δεδομένων από πραγματικές εικόνες, όπως επίσης και ένα σύνολο από εικόνες παραγμένες από AI, κι έπειτα εκπαιδεύεις το μοντέλο να τις ξεχωρίζει», εξήγησε ένας ακαδημαϊκός της Πληροφορικής στο Scientific American.

Προς το παρόν, το βασικό μειονέκτημα των AI ανιχνευτών είναι ότι καθένας από αυτούς έχει εκπαιδευτεί με εικόνες ενός συγκεκριμένου AI generator, άρα αδυνατεί να αναγνωρίσει όσες έχουν κατασκευαστεί από άλλον παρεμφερή. Αλλά είναι ζήτημα χρόνου να ξεπεραστεί αυτό το εμπόδιο, αφού ήδη σε ερευνητικό επίπεδο δοκιμάζονται GAN Detectors με ευρεία δεξαμενή δεδομένων.