ΕΠΙΘΕΣΗ ΣΤΟ ΙΡΑΝ

Να απαγορευτούν τα ρομπότ-δολοφόνοι στο πεδίο μάχης ζητά μια ομάδα ειδικών

Να απαγορευτούν τα ρομπότ-δολοφόνοι στο πεδίο μάχης ζητά μια ομάδα ειδικών Facebook Twitter
0

Μια ομάδα επιστημόνων απευθύνει έκκληση για την απαγόρευση της ανάπτυξης όπλων -ρομπότ που ελέγχονται από την τεχνητή νοημοσύνη (AI).

Αναφέρει μεταξύ άλλων ότι τα αυτόνομα όπλα μπορεί να δυσλειτουργούν με απρόβλεπτο τρόπο και να σκοτώσουν αθώους ανθρώπους.

Οι εμπειρογνώμονες υποστηρίζουν επίσης ότι το ηθικό βήμα για τα συστήματα AI να σκοτώνουν χωρίς καμία ανθρώπινη παρέμβαση, είναι πάρα πολύ μεγάλο.

Η έκκληση έγινε στο συνέδριο της Αμερικανικής Ένωσης για την Προώθηση της Επιστήμης στην Ουάσιγκτον.

Η Human Rights Watch (HRW) είναι ένας από τους 89 μη κυβερνητικούς οργανισμούς από 50 χώρες που έχουν συγκροτήσει την εκστρατεία για να σταματήσουν τα ρομπότ-δολοφόνους και πιέζουν για μια διεθνή συνθήκη.

Μεταξύ αυτών των πρωτοπόρων για την παγκόσμια απαγόρευση είναι η Mary Wareham της HRW.

«Δεν μιλάμε για ρομπότ εξολοθρευτές που πρόκειται να καταλάβουν τον κόσμο. Αυτό που μας ανησυχεί είναι πολύ πιο επικείμενο: συμβατικά οπλικά συστήματα με αυτονομία», είπε στο BBC News.

«Τα drones είναι το προφανές παράδειγμα, αλλά υπάρχουν και στρατιωτικά αεροσκάφη που απογειώνονται, πετούν και προσγειώνονται μόνα τους, ρομποτικές αποστολές που μπορούν να εντοπίσουν την κίνηση και είναι πρόδρομοι για αυτόνομα όπλα», λέει.

Ο Ryan Gariepy, επικεφαλής τεχνολογικός υπεύθυνος της Clearpath Robotics, υποστηρίζει την πρόταση απαγόρευσης. Η εταιρεία του αναλαμβάνει στρατιωτικές συμβάσεις, αλλά έχει απαρνηθεί τα συστήματα AI για πολέμους και δηλώνει ότι δεν θα τα αναπτύξει.

«Όταν αποτυγχάνουν, αποτυγχάνουν με απρόβλεπτους τρόπους», είπε στο BBC News.«Όσο εξελιγμένα και αν είναι, είναι πραγματικά περιορισμένα από την αναγνώριση εικόνας. Είναι αποτελεσματικά, αλλά δεν έχουν το πλαίσιο της κρίσης σε ένα πεδίο μάχης».

«Το αυτόνομο σύστημα δεν μπορεί να αποφασίζει αν θα σκοτώσει ή όχι σε μια μάχη. Η απόφαση έχει παρθεί χιλιάδες μίλια μακριά από προγραμματιστές και επιστήμονες που δεν έχουν αντίληψη για την κατάσταση στην οποία εμπλέκεται το όπλο», σημειώνει.

Σύμφωνα με τον Peter Asaro, του New School στη Νέα Υόρκη, ένα τέτοιο σενάριο εγείρει ζητήματα νομικής ευθύνης, εάν το σύστημα κάνει μια παράνομη δολοφονία. «Η εξουσιοδότηση για να σκοτώσει μια μηχανή δεν είναι δικαιολογημένη και αποτελεί παραβίαση των ανθρωπίνων δικαιωμάτων επειδή οι μηχανές δεν είναι ηθικοί παράγοντες και έτσι δεν είναι υπεύθυνες για τη λήψη αποφάσεων ζωής και θανάτου».

«Μπορεί λοιπόν να είναι υπεύθυνος ο λαός που έκανε το αυτόνομο όπλο», δηλώνει.

Τech & Science
0

ΕΠΙΘΕΣΗ ΣΤΟ ΙΡΑΝ

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

ΗΛΙΚΙΩΜΕΝΟΙ ΑΙΜΑΤΟΛΟΓΙΚΗ ΕΞΕΤΑΣΗ ΕΞΕΤΑΣΗ ΑΙΜΑΤΟΣ

Τech & Science / Εξέταση αίματος μπορεί να εκτιμήσει τον κίνδυνο θανάτου σε ηλικιωμένους

Ένα απλό αιματολογικό τεστ μπορεί να βοηθήσει τους γιατρούς να εντοπίσουν ποιοι ηλικιωμένοι διατρέχουν υψηλότερο κίνδυνο να ζήσουν μόνο για λίγα ακόμη χρόνια, καθώς μικρά μόρια RNA στο αίμα φαίνεται να προβλέπουν με ακρίβεια τη διάρκεια ζωής τους
THE LIFO TEAM
ΔΗΜΗΤΡΙΑΚΑ HARVARD ΓΙΑΤΡΟΣ ΓΑΣΤΡΕΝΤΕΡΟΛΟΓΟΣ

Τech & Science / Γιατρός του Harvard εξηγεί τον «κανόνα 5+5+5» για να επιλέγουμε τα πιο υγιεινά δημητριακά

«Δεν είναι σε καμία περίπτωση η πρώτη μου επιλογή για πρωινό, όμως πολλοί τα προτιμούν όταν βιάζονται», λέει η Δρ. Trisha Pasricha περπατώντας στον διάδρομο ενός σούπερ μάρκετ
THE LIFO TEAM
MILKY WAY ΑΣΤΕΡΙΑ ΓΑΛΑΞΙΑΣ

Τech & Science / Νέα φωτογραφία του Γαλαξία μάς βοηθά να κατανοήσουμε την καταγωγή των αστεριών

Πρόκειται για τη μεγαλύτερη εικόνα που έχει ληφθεί ποτέ από το δίκτυο των 66 κεραιών ALMA στην έρημο Ατακάμα της Χιλής, το οποίο διαχειρίζονται από κοινού το Ευρωπαϊκό Νότιο Αστεροσκοπείο, οι ΗΠΑ και η Ιαπωνία
THE LIFO TEAM