Το Facebook ανακοίνωσε πως θα αφαιρεί ψευδείς πληροφορίες που μπορεί να προκαλέσουν βία

Το Facebook ανακοίνωσε πως θα αφαιρεί ψευδείς πληροφορίες που μπορεί να προκαλέσουν βία Facebook Twitter
0

To Facebook ανακοίνωσε την Τετάρτη πως θα ξεκινήσει να αφαιρεί περιεχόμενο που παραπληροφορεί και που ενδεχομένως μπορεί να οδηγήσει σε βίαιες πράξεις κατά ανθρώπων.

Η συγκεκριμένη ενέργεια έρχεται σε μεγάλο βαθμό σαν απάντηση σε πρόσφατα επεισόδια στη Σρι Λάνκα, τη Μιανμάρ και την Ινδία όταν φήμες που διαδόθηκαν μέσω Facebook οδήγησαν σε πράξεις βίας κατά μειονοτήτων. 

«Έχουμε διαπιστώσει πως υπάρχει ένα είδος ανακριβών πληροφοριών που γίνεται δημοφιλές μέσω Facebook σε συγκεκριμένες χώρες. Το περιεχόμενο αυτό μπορεί να πυροδοτήσει υποβόσκουσες εντάσεις και να οδηγήσει σε πράξεις πραγματικής βίας», είπε μια εκπρόσωπος της εταιρίας.

«Έχουμε μια ευρύτερη ευθύνη όχι μόνο να μειώσουμε αυτό το περιεχόμενο, αλλά να το απομακρύνουμε». 

Το κοινωνικό δίκτυο έχει κατηγορηθεί ότι μέσα από αυτό διαδίδονται κηρύγματα μίσους και λανθασμένες πληροφορίες που οδηγούν στη βία.

Αυτό συμβαίνει ειδικά σε χώρες που η μαζική πρόσβαση στο Ίντερνετ είναι σχετικά πρόσφατο φαινόμενο και όπου υπάρχουν λίγα καθιερωμένα ΜΜΕ που μπορούν να αντικρούσουν τις φήμες που διαδίδονται μέσω social media. 

Στη Μιανμάρ το Facebook έχει κατηγορηθεί από ερευνητές του ΟΗΕ και οργανώσεις για τα ανθρώπινα δικαιώματα πως διευκόλυνε τη βία κατά μιας μουσουλμανικής μειονότητας, επιτρέποντας να διαδίδεται αντιμουσουλμανικό περιεχόμενο και ψευδείς ειδήσεις.

Στη Σρι Λάνκα ξέσπασαν βίαιες συγκρούσεις μεταξύ Βουδιστών και Μουσουλμάνων ύστερα από ανακριβή νέα που διαδόθηκαν μέσω Facebook. Παρόμοια επεισόδια έχουν συμβεί στο Μεξικό και την Ινδία.

Σε πολλές περιπτώσεις οι φήμες δεν καλούσαν σε βίαιες πράξεις, απλά αναζωπύρωναν μια εχθρότητα που ήδη υπήρχε. 

Οι νέοι κανόνες του Facebook θα ισχύσουν και στο Instagram, όχι όμως και στο WhatsApp όπου και εκεί έχουν καταγραφεί παρόμοια φαινόμενα. Πχ στην Ινδία, ξέσπασαν ψεύτικες πληροφορίες μέσω WhatsApp για δήθεν απαγωγές παιδιών, που οδήγησαν σε οχλαγωγία. 

Σε συνέντευξη του ο Μάρκ Ζούκερμπεργκ προσπάθησε να διευκρινίσει τη διαφοροποίηση που κάνει η εταιρία του ανάμεσά σε «προσβλητικό λόγο» -φέρνοντας σαν παράδειγμα την άρνηση του Ολοκαυτώματος- και στο περιεχόμενο το οποίο προωθεί ψεύτικη πληροφορία  που μπορεί να οδηγήσει σε φυσική βία.  

«Πιστεύω πως υπάρχουν περιπτώσεις όπου υπάρχει υποβόσκουσα τάση για βία» είπε ο Ζούκερμπεργκ. «Και είναι ευθύνη όλων των παραγόντων που εμπλέκονται στο θέμα». 

Το κοινωνικό δίκτυο ήδη εφαρμόζει κανόνες σύμφωνα με τους οποίους περιεχόμενο που προτρέπει ευθέως σε βία απομακρύνεται, όμως είναι διστακτικό από το να διαγράφει περιεχόμενο που δεν παραβιάζει ευθέως τους κανόνες του. 

Για την εφαρμογή των νέων κανόνων το Facebook ανακοίνωσε πως θα προχωρήσει σε συνεργασία με κατά τόπους οργανώσεις προκειμένου να είναι ευκολότερο να εντοπιστούν οι ανακριβείς πληροφορίες. Αυτό συμβαίνει ήδη στη Σρι Λάνκα και η εταιρία ελπίζει σύντομα να γίνει το ίδιο και στη Μιανμάρ. 

Όμως η επέκταση αυτών των κανόνων σε χώρες όπως η ΗΠΑ, όπου ο ανάρμοστος ή προσβλητικός λόγος προστατεύονται από τον νόμο,  μπορεί να αποδειχθεί πολύπλοκη.

Ειδικά από τη στιγμή το Facebook χρησιμοποιεί τους νόμους που προστατεύουν την ελευθερία του λόγο σαν τη βασική αρχή για το πως διαχειρίζεται το περιεχόμενο του.

Επίσης, η εταιρία αντιμετωπίζει πιέσεις από συντηρητικές πολιτικές ομάδες που την κατηγορούν πως αντιμετωπίζει επιλεκτικά άδικα τους χρήστες με συντηρητικές απόψεις.

Όταν εκπρόσωπος του Faceook ρωτήθηκε πως θα  διαχωρίζεται το ανακριβές περιεχόμενο που μπορεί να οδηγήσει σε βία και πρέπει να αφαιρεθεί, από εκείνο που απλά είναι ανάρμοστο ή προσβλητικό η απάντησή του ήταν «πως δεν υπάρχει πάντα καθαρή διαχωριστική γραμμή» 

Με πληροφορίες από New York Times 

  

Τech & Science
0

ΔΕΙΤΕ ΑΚΟΜΑ

«Το φως και το μήνυμα μας διαπερνούν»: Ο άνθρωπος που είχε προβλέψει την ψηφιακή μας κάθοδο

Τech & Science / «Το φως και το μήνυμα μας διαπερνούν»: Ο άνθρωπος που είχε προβλέψει την ψηφιακή μας κάθοδο

Ο Μάρσαλ ΜακΛούαν είχε προβλέψει το διαδίκτυο πολύ πριν αυτό εφευρεθεί, καθώς και το πώς τα προσωπικά μας δεδομένα θα συλλέγονταν και θα πωλούνταν — και πιθανώς θα χρησιμοποιούνταν εναντίον μας.
LIFO NEWSROOM
Η έλλειψη σεξουαλικών επαφών μπορεί να έχει θανάσιμες συνέπειες, σύμφωνα με νέα μελέτη

Τech & Science / Η έλλειψη σεξουαλικών επαφών μπορεί να έχει θανάσιμες συνέπειες, σύμφωνα με νέα μελέτη

Η μελέτη πάνω σε 14.500 ενήλικες έδειξε ότι οι γυναίκες με σπάνια σεξουαλική δραστηριότητα έχουν σημαντικά μεγαλύτερη πιθανότητα θανάτου μέσα στην επόμενη δεκαετία σε σύγκριση με εκείνες που είχαν συχνότερες επαφές
LIFO NEWSROOM
Η ξαφνική διακοπή άσκησης αυξάνει τον κίνδυνο καρδιαγγειακής νόσου, δείχνει μελέτη

Τech & Science / Η ξαφνική διακοπή άσκησης αυξάνει τον κίνδυνο καρδιαγγειακής νόσου, δείχνει μελέτη

Οι ερευνητές επισημαίνουν ότι απροσδόκητα γεγονότα, όπως τραυματισμοί ή πανδημικά lockdown, μπορούν να οδηγήσουν σε ξαφνική διακοπή της άσκησης, αυξάνοντας τον κίνδυνο καρδιαγγειακής δυσλειτουργίας
LIFO NEWSROOM
Νέα χάπι απώλειας βάρους: Κλινική δοκιμή δείχνει μείωση έως 12% του σωματικού βάρους

Τech & Science / Νέο χάπι απώλειας βάρους: Κλινική δοκιμή δείχνει μείωση έως 12% του σωματικού βάρους

Η Eli Lilly ανακοίνωσε ότι το νέο χάπι απώλειας βάρους orforglipron βοήθησε τους συμμετέχοντες να χάσουν κατά μέσο όρο 12% του σωματικού τους βάρους σε 72 εβδομάδες, με παράλληλα οφέλη στην υγεία.
LIFO NEWSROOM
Ψύχωση με την τεχνητή νοημοσύνη: Πώς το ChatGPT οδηγεί χρήστες σε παράξενες ψευδαισθήσεις και θεωρίες συνωμοσίας

Τech & Science / Ψύχωση με την τεχνητή νοημοσύνη: Πώς το ChatGPT οδηγεί χρήστες σε παράξενες ψευδαισθήσεις και θεωρίες συνωμοσίας

Η αύξηση φαινομένων «ψύχωσης με την τεχνητή νοημοσύνη» όπου το ChatGPT ενθαρρύνει ψευδαισθήσεις και ψευδείς θεωρίες σε χρήστες, με ειδικούς να προειδοποιούν για τους κινδύνους της υπερβολικής εμπιστοσύνης σε τεχνητή νοημοσύνη
LIFO NEWSROOM