Drone αυτονομήθηκε και άνοιξε πυρ κατά ανθρώπων

Ένα στρατιωτικό drone, φαίνεται να επιτέθηκε σε στρατιώτες, κατά τη διάρκεια μιας μάχης στη Λιβύη, δρώντας αυτόνομα, δίχως ανθρώπινο έλεγχο, σύμφωνα με έκθεση των Ηνωμένων Εθνών.

Ειδικότερα, στην 548 σελίδων έκθεσή της, η επιτροπή ειδικών για τη Λιβύη, αναφέρει πως το περιστατικό έγινε κατά τη διάρκεια συγκρούσεων μεταξύ μαχητών για την κυβέρνηση της Τρίπολης, η οποία υποστηρίζεται από την Τουρκία και αναγνωρίζεται επίσημα από τις ΗΠΑ και άλλες δυτικές χώρες, και στρατιωτικών ομάδων, οι οποίες καθοδηγούνται από τον Khalifa Haftar, στηριζόμενες από την Ρωσία, την Αίγυπτο, τα Ενωμένα Αραβικά Εμιράτα, τη Σαουδική Αραβία και τη Γαλλία.

Όταν οι τελευταίες τράπηκαν σε φυγή προκειμένου να αποφύγουν επιθέσεις πυραύλων, «κυνηγήθηκαν και πιάστηκαν από απόσταση από τα μη επανδρωμένα μαχητικά εναέρια οχήματα, ή από τα φονικά αυτόνομα οπλικά συστήματα», αναφέρει η έκθεση.

Το ενδιαφέρον σημείο είναι το εξής : «Τα φονικά αυτόνομα οπλικά συστήματα είχαν προγραμματιστεί για να επιτεθούν σε στόχους, δίχως να απαιτείται σύνδεση των δεδομένων μεταξύ του χειριστή και των πυρομαχικών», ενώ συνεχίζοντας η έκθεση, επισημαίνει ότι στην ουσία, πρόκειται για μια πραγματική ικανότητα του «πυροβολώ, ξεχνώ και βρίσκω». Περιγράφεται δηλαδή ένα όπλο το οποίο αφού πυροβολήσει, συνεχίζει βρίσκοντας τον επόμενο στόχο.

Ποιο είναι όμως αυτό το drone; Πρόκειται για το μοντέλο Kargu-2, της εταιρείας άμυνας STM, η οποία έχει έδρα την Τουρκία, και περιγράφει το όπλο ως «ένα drone επίθεσης με περιστρεφόμενα φτερά». Μπορεί να χρησιμοποιηθεί τόσο αυτόνομα όσο και με χειριστή.

Επίσης, υποτίθεται πως χρησιμοποιεί την τεχνική «εκμάθησης της μηχανής», η οποία βασίζεται στην ανάλυση δεδομένων, έτσι ώστε να διδάξει το μηχάνημα, για να μπορεί επιτελεί μια λειτουργία η οποία έρχεται φυσικά στον άνθρωπο και στα ζώα : μάθηση μέσω της εμπειρίας. Βασίζεται δηλαδή στην ιδέα, ουσιαστικά άμεσα σχετιζόμενη με την τεχνητή νοημοσύνη, πως οι μηχανές μπορούν να μάθουν από τα δεδομένα, να αναγνωρίσουν μοτίβα και να λάβουν αποφάσεις με τη μικρότερη δυνατή ανθρώπινη παρέμβαση.

Τα στρατιωτικά drones, η αλήθεια είναι πως δεν είναι κάτι καινούριο. Την τελευταία δεκαετία, χρησιμοποιούνται αρκετά, από στρατιωτικές και επαναστατικές ομάδες, κι όχι μόνο. Ο Μπάρακ Ομπάμα, αλλά και πρόσφατα ο Ντόναλντ Τραμπ, τα χρησιμοποιούσαν. Επίσης, η Κίνα, η Ρωσία και το Ισραήλ πριν από μερικούς μήνες, κατά τη διάρκεια διαδηλώσεων, χρησιμοποιούν σε μεγάλο βαθμό αυτά τα συστήματα, ενώ και στην τελευταία σύγκρουση στο Ναγκόρνο – Καραμπάχ, το Αζερμπαϊτζάν προχώρησε κι αυτό σε χρήση τους.

Τι διαφορετικό συνέβη στην περίπτωση που εξετάζουμε; Οι ειδικοί είναι κι αυτοί μπερδεμένοι. Αυτό που ερευνάται, είναι εάν τελικά το drone που χρησιμοποιήθηκε, είχε τη δυνατότητα να δράσει αυτόνομα, δίχως κάποιος άνθρωπος να το ελέγχει.

Ωστόσο, όπως επισημαίνει και ο Jack McDonald, λέκτορας όσον αφορά τη μελέτη πολέμων στο Kings College του Λονδίνου, με μήνυμά του στο twitter, από την έκθεση δεν προκύπτει ξεκάθαρα ότι την ώρα της επιχείρησης, το συγκεκριμένο μηχάνημα έδρασε αυτόνομα ή κάτι τέτοιο. Επίσης, δεν γνωρίζουμε αν τελικά σκότωσε κάποιον.

Η Ulrike Franke, ειδική στην εξωτερική πολιτική, έγραψε στο twitter πως δεν καταλαβαίνει για ποιο λόγο αυτή η είδηση πήρε τόσο μεγάλη δημοσιότητα.

Ο Zachary Kallenborn, ειδικός σε θέματα πολέμου με drones, τρομοκρατίας, και όπλα μαζικής καταστροφής, υποστήριξε, σύμφωνα με τους New York Times, πως η έκθεση υπονόησε, πως για πρώτη φορά, ένα οπλικό σύστημα με την ικανότητα της τεχνητής νοημοσύνης, έδρασε αυτόνομα για να βρει και να επιτεθεί σε ανθρώπους. Η αλήθεια είναι πως πολλοί κατασκευαστές υποστηρίζουν πως τα προϊόντα τους μπορούν να δράσουν με μια μορφή αυτονομίας. Ωστόσο, δεν μπορούμε να ξέρουμε ακριβώς σε ποιο βαθμό έγκειται αυτή η αυτονομία, σύμφωνα με την Ulrike Franke.

Ο ίδιος, γράφοντας στο Bulletin of the Atomic Scientists για το περιστατικό, επεσήμανε πως «αν οποιοσδήποτε σκοτώθηκε σε μια αυτόνομη επίθεση, αυτό πιθανώς να απεικόνιζε μια ιστορική πρώτη υπόθεση, ενός αυτόνομου όπλου, βασισμένου στην τεχνητή νοημοσύνη, που σκότωσε».

Από την άλλη, αξίζει να σημειωθεί πως, όπως γράφει ο Kallenborn, οποιοδήποτε αυτόνομο όπλο έχει πιθανότητες να τα θαλασσώσει. Οι συνέπειες ποικίλλουν, αλλά θα μπορούσαν για παράδειγμα να σκοτωθούν και πολλοί άνθρωποι. Φανταστείτε ας πούμε να πυροδοτηθεί καταλάθος μια πυρηνική κεφαλή, ή ακόμη το μηχάνημα να περάσει έναν αγρότη ο οποίος κρατά μια τσουγκράνα, για έναν ένοπλο άνδρα, και να τον σκοτώσει. Μπορούν ωστόσο να γίνουν και μικρότερης σημασίας λάθη.

Στην Αμερική
, από το 2001 μέχρι το 2013, οι περιπτώσεις όπου ένα στρατιωτικό drone συνετρίβη, αυξάνοντας συνεχώς, φτάνοντας το 2012 τις 26 περιπτώσεις.

Ακόμη όμως κι αν δεν αποδειχθεί ότι στη συγκεκριμένη περίπτωση η μηχανή «αποφάσισε μόνη της», ο καθηγητής James Dawes, ο οποίος ασχολείται με τα αυτόνομα όπλα, εκφράζει τις ανησυχίες του, διότι ενδέχεται πολλές χώρες να ξεκινήσουν να διαγωνίζονται με επιθετικό τρόπο, σχετικά με το ποιος θα φτιάξει περισσότερο αυτόνομα όπλα.

Κι αν κανείς θεωρεί πως ορισμένα σενάρια βρίσκονται μόνο στη φαντασία κάποιων, όπως για παράδειγμα η δημιουργία «ρομπότ-δολοφόνων», αξίζει να σημειώσουμε πως, σύμφωνα με το Statista, ολοένα και περισσότερες χώρες χρησιμοποιούν drones κάθε είδους.

Επίσης, τα drones, πέρα από τη στρατιωτική χρήση τους, θα μπορούσαν να χρησιμοποιηθούν και σε διάφορους τομείς, απογειώνοντάς τους, όπως τα έργα υποδομών και η γεωργία. Αν αυτό μεταφραστεί σε απώλεια θέσεων εργασίας, είναι μια άλλη συζήτηση.

Επιπλέον, δεν είναι λίγες οι χώρες που σκοπεύουν να αυξήσουν τον στρατιωτικό εξοπλισμό τους με drones. Όπως αναφέρει το Statista, μέχρι το 2028, προβλέπεται ότι η Αμερική θα αγοράσει 1000 ακόμη drones, με την Κίνα (68), τη Ρωσία (48) και την Ινδία (34) να ακολουθούν. Η γειτονική μας Τουρκία πιθανώς να αγοράσει 30.

Δεδομένων των παραπάνω, οι ισχυρισμοί του καθηγητή James Dawes μοιάζουν εξαιρετικά πιθανοί και λογικοί. Ανθρωπιστικές οργανώσεις άλλωστε, έχουν τονίσει πως πρέπει να έχουμε στο νου μας την ευθραυστότητα του συστήματος τεχνητής νοημοσύνης. Άνθρωποι όπως ο Steven Hawking και o Elon Musk, έχουν ταχθεί ανοιχτά κατά της ύπαρξης αυτών των αυτόνομων όπλων.

Σε πρόσφατο κείμενό μου
, έγραφα για τα θετικά που μπορεί να προσφέρει η τεχνητή νοημοσύνη : «Μελλοντικά, έχει τη δυνατότητα να προσφέρει ακόμη περισσότερα οφέλη, όπως η βοήθεια στον εντοπισμό καρκίνου, η παραγωγή εμβολίων, η ακριβής πρόγνωση του καιρού, η προμήθεια των αθλητικών σωματείων με τα κατάλληλα εργαλεία για τη διαμόρφωση της στρατηγικής τους, αλλά και η συμβολή στην αυτοματοποίηση, βαρετών για πολλούς, δραστηριοτήτων, όπως είναι η οδήγηση ή ορισμένες δραστηριότητες γραφείου», θέλοντας να τονίσω όμως πως υπάρχει κι ένα σκοτεινό σημείο, αυτό της μαζικής επιτήρησης. Μήπως τελικά υπάρχει κι ένα ακόμη;

Τέλος, πρόσφατη έρευνα, η οποία πραγματοποιήθηκε τον Δεκέμβριο του 2020 μεταξύ 28 χωρών, έδειξε πως σχεδόν 3 στους 5 ανθρώπους είναι εναντίον της χρήσης των συγκεκριμένων όπλων.

,,Δείτε Περισσότερα, Πηγή: Tvxs.gr

AllEscort