Γιατί η Tεχνητή Nοημοσύνη των κοινωνικών δικτύων είναι προκατειλημμένη;

Γιατί η Tεχνητή Nοημοσύνη των κοινωνικών δικτύων είναι προκατειλημμένη; Facebook Twitter
To Facebook έχει λάβει τις περισσότερες άσχημες κριτικές σχετικά με τους αλγορίθμους της πλατφόρμας, οι οποίοι έχουν σχεδιαστεί για να διατηρούν το περιεχόμενο μέσα στις κατευθυντήριες γραμμές της κοινότητας. Ωστόσο, πολλές έρευνες έχουν δείξει ότι το προσωπικό αναθεώρησης του κοινωνικού δικτύου υπήρξε συχνά ασυνεπές.
0

Eξ αιτίας ενός βίντεο, το οποίο ανέβηκε παραμονή πρωτοχρονιάς στην μεγαλύτερη βίντεο πλατφόρμα του πλανήτη και κυριολεκτικά γελοιοποίησε το γεγονός του θανάτου ενός αυτόχειρα (εντάσσοντάς το στην ηλίθια φλυαρία ενός δημοφιλή δημιουργού της πλατφόρμας), το YouTube αποφάσισε να λάβει δρακόντεια μέτρα για να εμποδίζει στο εξής οποιοδήποτε «ανάρμοστο» περιεχόμενο ανεβαίνει στα κανάλια του. Μέτρα που αρχικά επηρεάζουν πολλές χιλιάδες, λιγότερους γνωστούς, δημιουργούς οι οποίοι πλέον δεν μπορούν να χρησιμοποιήσουν οποιοδήποτε πρόγραμμα κέρδους από τις επισκέψεις των οπαδών στα κανάλια τους.

Μια άλλη στοχευμένη διαφήμιση, πριν λίγους μήνες, απέδειξε ότι μέσα στο Facebook μπορούσε κάποιος να «κατευθύνει» το προϊόν του σε ομάδες που μισούν τους Εβραίους ή σε ομάδες Ναζί. Με άλλα λόγια, τα κοινωνικά δίκτυα, μέχρι πριν λίγο καιρό, μαστίζονταν από ακατάλληλο υλικό που κατάφερνε να γλιστρήσει μέσα από τις ρωγμές τους. 

Γιατί η Tεχνητή Nοημοσύνη των κοινωνικών δικτύων είναι προκατειλημμένη; Facebook Twitter
Το Facebook συνεχίζει ακόμη τις προσπάθειές του να εξασφαλίσει τους χρήστες από μεροληπτικές διαφημίσεις που αποκλείουν τους ανθρώπους με κριτήρια όπως η φυλή, η εθνικότητα, η ηλικία ή ο σεξουαλικός προσανατολισμός.

Μέχρι σήμερα, το μεγάλο όπλο όλων των τεχνολογικών κολοσσών ήταν και συνεχίζει να είναι η Τεχνητή Νοημοσύνη, αλλά όπως φαίνεται η μηχανική μάθηση δεν είναι ακόμα ικανή να μάθει στις μηχανές πώς να πιάνουν "πουλιά στον αέρα". Έτσι, ενώ όλα τα κοινωνικά δίκτυα θέλουν να την εμπιστεύονται, εκείνη αποτυγχάνει οικτρά. Το μεγάλο της πρόβλημα είναι ότι ενώ μπορεί να «επισημαίνει» γρήγορα την προσβλητική γλώσσα ή ενώ μπορεί να αναγνωρίζει τις εικόνες πολύ καλά, δεν ξέρει ακόμα τι σημαίνει «πρόθεση».

Χρησιμοποιώντας την επεξεργασία της φυσικής γλώσσας, η ΤΝ μπορεί να εκπαιδευθεί ώστε να αναγνωρίζει το κείμενο σε πολλές γλώσσες. Έτσι ένα πρόγραμμα που έχει σχεδιαστεί για να εντοπίζει τις παραβιάσεις των οδηγιών μιας κοινότητας, για παράδειγμα, μπορεί με τον ίδιο τρόπο να ανιχνεύει υβριστικές λέξεις που σχετίζονται με φυλετικές διακρίσεις ή εξτρεμιστική προπαγάνδα.

Η Τεχνητή Νοημοσύνη μπορεί επίσης να εκπαιδευθεί ώστε να αναγνωρίζει εικόνες, ή να αποτρέπει το γυμνό και άλλα σύμβολα, όπως μια σβάστικα. Λειτουργεί καλά, σε πολλές περιπτώσεις, αλλά δεν είναι ένα «ξέγνοιαστο» σύστημα. Το 2015 η Google Photos κατηγορήθηκε για την προσθήκη ετικετών σε εικόνες με έγχρωμους ανθρώπους με τη λέξη «γορίλας». Τρία χρόνια αργότερα, η Google ακόμη δεν έχει βρει λύση για το πρόβλημα, οπότε αποφάσισε κάποια στιγμή να καταργήσει εντελώς τα tags του προγράμματος σε πιθήκους και γορίλες. Οι χρήστες της LGBTQ κοινότητας του Twitter πρόσφατα είχαν ανακαλύψει την έλλειψη αποτελεσμάτων για #gay και #bisexual αναζητήσεων και το κοινωνικό δίκτυο ζήτησε συγνώμη γαι το σφάλμα, ρίχνοντας όλο το φταίξιμο σε έναν παρωχημένο αλγόριθμο.

H αλήθεια είναι ότι στις μέρες μας η ΤΝ δεν μπορεί να κάνει τίποτα παραπάνω από το να μεροληπτεί. Η αποτυχία της προσθήκης ετικετών «γορίλας» σε εικόνες ζώων δείχνει ξεκάθαρα πόσο προκατειλημμένη είναι ακόμη αυτή η τεχνολογία. Και έαν αναρωτιώμαστε πώς είναι δυνατόν ένα κομπιούτερ να είναι προκατειλημένο, θα πρέπει να καταλάβουμε ότι κάθε τεχνητή νοημοσύνη (η οποία ζει μέσα σε έναν δυνατό υπολογιστή) εκπαιδεύεται από ανθρώπους που δουλεύουν με πλήρη καθήκοντα, εισάγοντας τα αποτελέσματα των εργασιών τους στο σύστημά της. Για παράδειγμα, τα προγράμματα που χρησιμοποιούνται για να αναγνωρίζουν αντικείμενα ή σύμβολα σε μια φωτογραφία, έχουν πρώτα χορτάσει από χιλιάδες εικόνες που τα τάισαν ανθρώπινα χέρια.

Το ανθρώπινο στοιχείο είναι εκείνο που καθιστά δυνατή την ΤΝ να ολοκληρώσει καθήκοντα που θα ήταν αδύνατα προηγουμένως για ένα τυπικό λογισμικό, αλλά το ίδιο ανθρώπινο στοιχείο είναι κι αυτό που μπορεί να δώσει επίσης και μια λάθος ανθρώπινη προκατάληψη σε έναν υπολογιστή. Γιατί ένα πρόγραμμα ΤΝ είναι τόσο καλό όσο και τα δεδομένα που το τάισαν - αν για παράδειγμα ένα σύστημα τροφοδοτηθεί σε μεγάλο βαθμό με εικόνες ασθενών λευκών ανθρώπων, τότε θα δυσκολευθεί πολύ, όχι μόνο να εντοπίσει άτομα με άλλο χρώμα δέρματος, αλλά και να καταλάβει ότι μπορούν να αρρωστήσουν και αυτοί.

Γιατί η Tεχνητή Nοημοσύνη των κοινωνικών δικτύων είναι προκατειλημμένη; Facebook Twitter
Ένας από τους server Τεχνητής Νοημοσύνης του Facebook.

Η σημερινή Τεχνητή Νοημοσύνη του Facebook μπορεί να ανιχνεύσει μια σβάστικα σε κάποια φωτογραφία, αλλά δεν μπορεί ακόμη, να καθορίσει τον τρόπο με τον οποίο χρησιμοποιείται το σύμβολο. Μετά τα γεγονότα στο Σάρλοτσβιλ, το Facebook εξέφρασε δημόσια συγνώμη για την κατάργηση ενός post που περιελάμβανε μια σβάστικα, αλλά συνοδευόταν από ένα κείμενο, που ουσιαστικά έκανε έκκληση να σταματήσει η εξάπλωση του μίσους. Αυτό είναι μόνο ένα μικρό παράδειγμα της αποτυχίας των αλγόριθμων του Facebook, όπως και ο χαρακτηρισμός ως «σεξουαλικό περιεχόμενο» και η πρόσφατη κατάργηση φωτογραφίας με το γυμνό άγαλμα του Ποσειδώνα στην Μπολόνια. Με τον ίδιο τρόπο ο αλγόριθμος ενδέχεται να μπλοκάρει κάθε είδους φωτορεπορτάζ ή άλλης είδησης λόγω χρήσης πιθανών συμβόλων του μίσους.

Οι ιστορικές φωτογραφίες που μοιράζονται για εκπαιδευτικούς σκοπούς είναι ένα ακόμη παράδειγμα - το 2016, το Facebook προκάλεσε μια αξέχαστη διαμάχη μετά την απομάκρυνση της ιστορικής φωτογραφίας "napalm girl" του Nick Ut. Η φωτογραφία του 1972 που απεικονίζει ένα γυμνό κορίτσι να τρέχει μετά την έκρηξη μιας βόμβας ναπάλμ στο Βιετνάμ ανέβηκε αρχικά στην πλατφόρμα από τον Νορβηγό συγγραφέα Tom Egelad. Το Facebook την κατέβασε και μπλόκαρε τον Egelad. Όταν η νορβηγική εφημερίδα Aftenposten πήρε την ιστορία και την μοιράστηκε στο Facebook (μαζί με την αντίστοιχη εικόνα) έλαβε πίσω με την ίδια απάντηση: «Οποιαδήποτε φωτογραφία ανθρώπων που εμφανίζουν πλήρως γυμνά γεννητικά όργανα ή γλουτούς, ή πλήρως γυμνό θηλυκό στήθος, θα αφαιρείται». Η διαγραφή της φωτογραφίας από πολλές σελίδες χρηστών προκάλεσε τόσο έντονες αντιδράσεις και πρωτοσέλιδα στη Νορβηγία, που αργότερα το κοινωνικό δίκτυο αναγκάστηκε να αποκαταστήσει τη φωτογραφία απ' όπου είχε αφαιρεθεί.

Γιατί η Tεχνητή Nοημοσύνη των κοινωνικών δικτύων είναι προκατειλημμένη; Facebook Twitter
Ο Espen Egil Hansen, συντάκτης της Aftenposten, κατηγόρησε ανοιχτά τον Zuckerberg ότι «καταχράστηκε την εξουσία του» ως «ο πιο ισχυρός εκδότης του κόσμου» για τη λογοκρισία της ιστορικής φωτογραφίας του Nick Ut.

Όλα δείχνουν ότι η ΤΝ μπορεί άνετα να χρησιμεύσει ως αρχικός έλεγχος, αλλά χωρίς τον ανθρώπινο παράγοντα είναι ένα αποτυχημένο σύστημα. Χωρίς συντονιστές που διαπιστώνουν εάν όντως κάποιο περιεχόμενο παραβιάζει τα κοινοτικά πρότυπα, η ΤΝ δεν μπορεί να λειτουργήσει. Παρά τις συνεχείς βελτιώσεις της, αυτό δεν μπορεί να αλλάξει στο άμεσο μέλλον. Και αυτό το γνωρίζουν πολύ καλά τα μεγάλα δίκτυα. Ίσως, γι' αυτό το Facebook αποφάσισε ότι θα αυξήσει το ανθρώπινο δυναμικό της ομάδας ελέγχου του κατά 20.000 και το YouTube κατά 10.000.

Μόνο με περισσότερο ανθρώπινο μυαλό στον έλεγχο, η εξυπνάδα των μηχανών μπορεί να καταφέρει να γίνει πιο αποτελεσματική. Έχει αποδείξει έμπρακτα, άλλωστε, ότι μπορεί κάτι να κάνει. Έστω και εάν απαιτεί αναθεωρήσεις από ανθρώπινο δυναμικό. Μπορεί να αναγνωρίζει τις τάσεις αυτοκτονίας σε κάποια ανάρτηση (εάν διαβάσει γρήγορα και απολεσματικά λέξεις κλειδιά που οδηγούν σε αυτό το συμπέρασμα) πιο γρήγορα από τον άνθρωπο, αλλά σίγουρα δεν μπορεί να «κρίνει» εάν η ανάρτηση είναι αληθινή, υποθετική ή απλά περιέχει ένα στίχο από ένα ποίημα.

Γιατί η Tεχνητή Nοημοσύνη των κοινωνικών δικτύων είναι προκατειλημμένη; Facebook Twitter
Η σημερινή Τεχνητή Νοημοσύνη του Facebook μπορεί να ανιχνεύσει μια σβάστικα σε κάποια φωτογραφία, αλλά δεν μπορεί ακόμη, να καθορίσει τον τρόπο με τον οποίο χρησιμοποιείται το σύμβολο.

H τεχνολογία της ΤΝ έχει κάνει τεράστια πρόοδο, αλλά έχει έναν πολύ μεγάλο δρόμο μπροστά της. Βασικά, λειτουργεί καλύτερα για να διευκολύνει τους ανθρώπους συντονιστές, τους βοηθά να εργάζονται γρηγορότερα και σε μεγαλύτερη κλίμακα. Αλλά, για την ώρα, δεν μπορεί να σταθεί στα πόδια της 100% αυτοματοποιημένη, σε καμία πλατφόρμα.

Βέβαια, στην εποχή που ζούμε, η τεχνολογία έχει αποδείξει ότι εξελίσσεται με ταχύτατους ρυθμούς, που κανένας νόμος και καμία δεοντολογία δεν μπορούν να συμβαδίσουν μαζί τους. Και η συντήρηση των κοινωνικών μέσων δεν αποτελεί εξαίρεση στον κανόνα. Για την ώρα, αυτό το κομμάτι της τεχνολογικής ανάπτυξης θα μπορούσε να σημαίνει αυξημένη ζήτηση σε εργαζόμενους, εκπαιδευμένους στις ανθρωπιστικές επιστήμες ή την ηθική, κάτι που οι περισσότεροι προγραμματιστές, σίγουρα, δεν κατέχουν. Γιατί, όσο ο ρυθμός, η ταχύτητα και η εξέλιξη δεν σταματούν, άλλο τόσο θα πρέπει και οι χρήστες ενός νοήμονος συστήματος να διασφαλίζουν ότι η ηθική συνιστώσα του δεν θα μείνει ποτέ πίσω από όλη αυτήν την τεχνολογία αιχμής.

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

Ο Πίτερ Τζάκσον στις Κάννες: «Η τεχνητή νοημοσύνη είναι απλώς ένα ειδικό εφέ»

Τech & Science / Ο Πίτερ Τζάκσον στις Κάννες: «Η τεχνητή νοημοσύνη είναι απλώς ένα ειδικό εφέ»

Μετά τον τιμητικό Χρυσό Φοίνικα, ο σκηνοθέτης του Άρχοντα των Δαχτυλιδιών μίλησε για την AI, τα δικαιώματα των ηθοποιών, τον Γκόλουμ του Άντι Σέρκις και το νέο The Hunt for Gollum. ΚΕΙΜΕΝΟ
THE LIFO TEAM
ΕΓΚΕΦΑΛΟΣ ΓΗΡΑΝΣΗ

Τech & Science / Τρεις απολαυστικοί τρόποι να επιβραδύνετε τη γήρανση του εγκεφάλου σας

Ο ανθρώπινος εγκέφαλος «ακμάζει» μέσα από διάφορες προκλήσεις, αλλά δεν χρειάζεται να κάνετε πάντα σκληρή δουλειά για να αποκομίσετε τα οφέλη για την υγεία - Ακολουθούν τρεις απλοί και διασκεδαστικοί τρόποι για να προστατεύσετε τον εγκέφαλό σας καθώς μεγαλώνετε
THE LIFO TEAM
Cate Blanchett, George Clooney και Meryl Streep στηρίζουν νέο σύστημα συναίνεσης για την AI

Τech & Science / Η Κέιτ Μπλάνσετ, ο Τζορτζ Κλούνεϊ και η Μέριλ Στριπ στηρίζουν νέο σύστημα συναίνεσης για την AI

Η Κέιτ Μπλάνσετ συνιδρύει το RSL Media, έναν μη κερδοσκοπικό οργανισμό που θέλει να δώσει σε δημιουργούς και απλούς χρήστες έναν τρόπο να δηλώνουν αν επιτρέπουν ή απαγορεύουν τη χρήση της εικόνας, της φωνής και των έργων τους από συστήματα τεχνητής νοημοσύνης.
THE LIFO TEAM
Το ChatGPT στην Κίνα υπόσχεται να «σε κρατήσει με ασφάλεια» και έγινε meme

Τech & Science / Το ChatGPT στην Κίνα υπόσχεται να «σε κρατήσει με ασφάλεια» και έγινε meme

Στα αγγλικά το ChatGPT έχει τις παύλες, τα έτοιμα σχήματα και τις φράσεις που μυρίζουν AI από μακριά. Στα κινεζικά, οι χρήστες το κοροϊδεύουν επειδή επαναλαμβάνει μια παράξενα τρυφερή φράση, σαν να είναι έτοιμο να τους πιάσει αν πέσουν.
THE LIFO TEAM
Πώς γίνεσαι tech bro: Το Στάνφορντ ως εργοστάσιο των νέων δισεκατομμυριούχων

Τech & Science / Πώς γίνεσαι tech bro: Το Στάνφορντ ως εργοστάσιο εικοσάρηδων δισεκατομμυριούχων

Στο How to Rule the World, ο 21χρονος δημοσιογράφος Θίο Μπέικερ μπαίνει στον κλειστό κόσμο του Στάνφορντ, εκεί όπου επενδυτές, hackathons και ελίτ φοιτητικές λέσχες μαθαίνουν σε παιδιά είκοσι ετών να σκέφτονται σαν μελλοντικοί άρχοντες της Σίλικον Βάλεϊ. Το πιο παράλογο; Μερικοί παίρνουν χρηματοδότηση πριν σκεφτούν καν τι εταιρεία θέλουν να φτιάξουν.
THE LIFO TEAM
Η νέα βιτρίνα της μόδας βρίσκεται πια κάτω από το πόστ σου

Τech & Science / Η νέα βιτρίνα της μόδας βρίσκεται πια κάτω από το πόστ σου

Οι μάρκες μόδας και ομορφιάς δεν αρκούνται πια στο τέλειο post. Μπαίνουν όλο και πιο ενεργά στα σχόλια του Instagram και του TikTok, εκεί όπου η Gen Z ψάχνει προϊόντα, συγκρίνει γνώμες και αποφασίζει τι μπορεί να εμπιστευτεί. Το πιο υποτιμημένο σημείο των social media γίνεται η νέα βιτρίνα τους.
THE LIFO TEAM
Το SheerLuxe έφτιαξε AI influencers και οι αναγνώστριες δεν το συγχώρεσαν

Τech & Science / Το SheerLuxe έφτιαξε AI influencers και οι αναγνώστριες δεν το συγχώρεσαν

Η βρετανική πλατφόρμα μόδας και lifestyle παρουσίασε τέσσερις ψηφιακές influencers για συμβουλές ομορφιάς και styling στο Instagram, προκαλώντας έντονες αντιδράσεις. Οι αναγνώστριες κατηγόρησαν το SheerLuxe ότι προωθεί μη ρεαλιστικά πρότυπα ομορφιάς και αντικαθιστά πραγματικές γυναίκες με avatars που δεν μπορούν καν να δοκιμάσουν τα προϊόντα που προτείνουν.
THE LIFO TEAM
ΜΕΛΕΤΗ ΛΙΒΕΛΟΥΛΑ ΙΝΔΙΑ

Τech & Science / Σε κίνδυνο οι λιβελούλες: Επιστήμονες προειδοποιούν για ένα από τα σημαντικότερα hotspots βιοποικιλότητας στον κόσμο

Τα Δυτικά Γκατ της Ινδίας, ένα από τα σημαντικότερα οικοσυστήματα βιοποικιλότητας παγκοσμίως, δέχονται ολοένα και μεγαλύτερη πίεση από ανθρώπινες δραστηριότητες και περιβαλλοντική υποβάθμιση
THE LIFO TEAM
ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ

Τech & Science / «Μας κάνει τεμπέληδες»: Οι επιστήμονες προειδοποιούν για τους κινδύνους της υπερβολικής χρήσης AI

Η τεχνητή νοημοσύνη έχει μπει δυναμικά στην καθημερινότητά μας, όμως νέες έρευνες εγείρουν ανησυχίες ότι η υπερβολική εξάρτηση από αυτή μπορεί να επηρεάσει αρνητικά τη μνήμη, τη δημιουργικότητα και την κριτική μας σκέψη
THE LIFO TEAM
ΕΤΙΚΕΤΕΣ ΤΡΟΦΙΜΑ ΕΠΙΠΤΩΣΗ ΥΓΕΙΑ

Τech & Science / Ο λόγος που οι ετικέτες τροφίμων έχουν επιπτώσεις στην υγεία μας

Η σύγχρονη διατροφική συμπεριφορά διαμορφώνεται σε μεγάλο βαθμό από το περιβάλλον, με τους ειδικούς να τονίζουν ότι η καλύτερη σήμανση τροφίμων και η εκπαίδευση των καταναλωτών είναι καθοριστικές για πιο υγιεινές επιλογές
THE LIFO TEAM