Να απαγορευτούν τα ρομπότ-δολοφόνοι στο πεδίο μάχης ζητά μια ομάδα ειδικών

Να απαγορευτούν τα ρομπότ-δολοφόνοι στο πεδίο μάχης ζητά μια ομάδα ειδικών Facebook Twitter
0

Μια ομάδα επιστημόνων απευθύνει έκκληση για την απαγόρευση της ανάπτυξης όπλων -ρομπότ που ελέγχονται από την τεχνητή νοημοσύνη (AI).

Αναφέρει μεταξύ άλλων ότι τα αυτόνομα όπλα μπορεί να δυσλειτουργούν με απρόβλεπτο τρόπο και να σκοτώσουν αθώους ανθρώπους.

Οι εμπειρογνώμονες υποστηρίζουν επίσης ότι το ηθικό βήμα για τα συστήματα AI να σκοτώνουν χωρίς καμία ανθρώπινη παρέμβαση, είναι πάρα πολύ μεγάλο.

Η έκκληση έγινε στο συνέδριο της Αμερικανικής Ένωσης για την Προώθηση της Επιστήμης στην Ουάσιγκτον.

Η Human Rights Watch (HRW) είναι ένας από τους 89 μη κυβερνητικούς οργανισμούς από 50 χώρες που έχουν συγκροτήσει την εκστρατεία για να σταματήσουν τα ρομπότ-δολοφόνους και πιέζουν για μια διεθνή συνθήκη.

Μεταξύ αυτών των πρωτοπόρων για την παγκόσμια απαγόρευση είναι η Mary Wareham της HRW.

«Δεν μιλάμε για ρομπότ εξολοθρευτές που πρόκειται να καταλάβουν τον κόσμο. Αυτό που μας ανησυχεί είναι πολύ πιο επικείμενο: συμβατικά οπλικά συστήματα με αυτονομία», είπε στο BBC News.

«Τα drones είναι το προφανές παράδειγμα, αλλά υπάρχουν και στρατιωτικά αεροσκάφη που απογειώνονται, πετούν και προσγειώνονται μόνα τους, ρομποτικές αποστολές που μπορούν να εντοπίσουν την κίνηση και είναι πρόδρομοι για αυτόνομα όπλα», λέει.

Ο Ryan Gariepy, επικεφαλής τεχνολογικός υπεύθυνος της Clearpath Robotics, υποστηρίζει την πρόταση απαγόρευσης. Η εταιρεία του αναλαμβάνει στρατιωτικές συμβάσεις, αλλά έχει απαρνηθεί τα συστήματα AI για πολέμους και δηλώνει ότι δεν θα τα αναπτύξει.

«Όταν αποτυγχάνουν, αποτυγχάνουν με απρόβλεπτους τρόπους», είπε στο BBC News.«Όσο εξελιγμένα και αν είναι, είναι πραγματικά περιορισμένα από την αναγνώριση εικόνας. Είναι αποτελεσματικά, αλλά δεν έχουν το πλαίσιο της κρίσης σε ένα πεδίο μάχης».

«Το αυτόνομο σύστημα δεν μπορεί να αποφασίζει αν θα σκοτώσει ή όχι σε μια μάχη. Η απόφαση έχει παρθεί χιλιάδες μίλια μακριά από προγραμματιστές και επιστήμονες που δεν έχουν αντίληψη για την κατάσταση στην οποία εμπλέκεται το όπλο», σημειώνει.

Σύμφωνα με τον Peter Asaro, του New School στη Νέα Υόρκη, ένα τέτοιο σενάριο εγείρει ζητήματα νομικής ευθύνης, εάν το σύστημα κάνει μια παράνομη δολοφονία. «Η εξουσιοδότηση για να σκοτώσει μια μηχανή δεν είναι δικαιολογημένη και αποτελεί παραβίαση των ανθρωπίνων δικαιωμάτων επειδή οι μηχανές δεν είναι ηθικοί παράγοντες και έτσι δεν είναι υπεύθυνες για τη λήψη αποφάσεων ζωής και θανάτου».

«Μπορεί λοιπόν να είναι υπεύθυνος ο λαός που έκανε το αυτόνομο όπλο», δηλώνει.

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

Τι μας μαθαίνουν οι γορίλες για τις ανθρώπινες φιλίες και την κοινωνική μας φύση;

Τech & Science / Τι μας μαθαίνουν οι γορίλες για τις ανθρώπινες φιλίες και την κοινωνική μας φύση

Μελέτη 20 ετών σε ορεινούς γορίλες αποκαλύπτει πώς οι κοινωνικές σχέσεις επηρεάζουν την υγεία και την αναπαραγωγή – και τι σημαίνει αυτό για την ανθρώπινη κοινωνική συμπεριφορά
LIFO NEWSROOM
Αποκάλυψη από τις στάχτες του Βεζούβιου: Ανάγνωση παπύρου αποδίδει έργο του αρχαίου Έλληνα φιλοσόφου Φιλόδημου

Τech & Science / Αποκάλυψη από τις στάχτες του Βεζούβιου: Ανάγνωση παπύρου αποδίδει έργο του αρχαίου Έλληνα φιλοσόφου Φιλόδημου

Με τη βοήθεια ακτινογραφιών και τεχνητής νοημοσύνης, ερευνητές αποκωδικοποίησαν έναν καμένο πάπυρο από την Ηράκλεια, αποκαλύπτοντας έργο του Φιλόδημου, μαθητή του Επίκουρου
LIFO NEWSROOM
Επιστροφή από το Ψυχρό Πόλεμο: Σοβιετικός δορυφόρος του 1972 αναμένεται να πέσει στη Γη μετά από 53 χρόνια

Τech & Science / Επιστροφή από τον Ψυχρό Πόλεμο: Σοβιετικός δορυφόρος του 1972 αναμένεται να πέσει στη Γη μετά από 53 χρόνια

Το διαστημικό σκάφος Kosmos 482, αποτυχημένη αποστολή προς την Αφροδίτη, ενδέχεται να επανεισέλθει ανεξέλεγκτα στην ατμόσφαιρα μέσα στις πρώτες ημέρες του Μαΐου
LIFO NEWSROOM