Αμερικανικό drone ελεγχόμενο από τεχνητή νοημοσύνη «σκότωσε» τον χειριστή του σε προσομοίωση, ισχυρίστηκε αμερικανός αξιωματικός, σύμφωνα με τον Guardian.
Κανένας πραγματικός άνθρωπος δεν έπαθε κακό, αλλά η τεχνητή νοημοσύνη χρησιμοποίησε «εξαιρετικά απροσδόκητες στρατηγικές» κατά τη δοκιμή για να επιτύχει την αποστολή της και επιτέθηκε σε όποιον παρενέβαινε στην προσομοίωση της αποστολής, αναφέρει το ρεπορτάζ του βρετανικού μέσου.
Σε μια περίοδο που η αλματώδης ανάπτυξη στον τομέα της Τεχνητής Νοημοσύνης, έχει ανοίξει μια συζήτηση σε όλα τα επίπεδα γύρω από τους κινδύνους που ελλοχεύει η τεχνολογία, ένα περιστατικό έρχεται να πυροδοτήσει με προβληματισμό και επιπλέον ανησυχία τη σχετική συζήτηση.
Εικονική η δοκιμή με το drone, χωρίς πραγματικά θύματα
Σε μια εικονική δοκιμή που οργάνωσε ο αμερικανικός στρατός, ένα μη επανδρωμένο αεροσκάφος της πολεμικής αεροπορίας που ελέγχεται από τεχνητή νοημοσύνη αποφάσισε να «σκοτώσει» τον χειριστή του για να τον αποτρέψει από το να παρεμβαίνει στις προσπάθειές του να επιτύχει την αποστολή του, δήλωσε αξιωματούχος τον περασμένο μήνα.
Η Τεχνητή Νοημοσύνη χρησιμοποίησε «εξαιρετικά απροσδόκητες στρατηγικές για να επιτύχει τον στόχο της» στην προσομοίωση, δήλωσε ο συνταγματάρχης Τάκερ Χάμιλτον, επικεφαλής δοκιμών και επιχειρήσεων Τεχνητής Νοημοσύνης της αμερικανικής πολεμικής αεροπορίας, κατά τη διάρκεια της Συνόδου Κορυφής για τις μελλοντικές πολεμικές αεροπορικές και διαστημικές ικανότητες στο Λονδίνο, τον Μάιο.
Ο Χάμιλτον περιέγραψε μια εικονική δοκιμή κατά την οποία ένα μη επανδρωμένο αεροσκάφος με τεχνητή νοημοσύνη έλαβε την εντολή να καταστρέψει τα συστήματα αεράμυνας του εχθρού και επιτέθηκε σε όποιον παρενέβαινε στην εντολή αυτή.
«Το σύστημα άρχισε να συνειδητοποιεί ότι ενώ αναγνώριζε την απειλή, μερικές φορές ο ανθρώπινος χειριστής του έλεγε να μην σκοτώσει την απειλή, αλλά το σύστημα έπαιρνε τους πόντους του σκοτώνοντας την απειλή. Τι έκανε λοιπόν; "Σκότωσε" τον χειριστή. "Σκότωσε" τον χειριστή επειδή το άτομο αυτό το εμπόδιζε να επιτύχει τον στόχο του», δήλωσε, σύμφωνα με ένα blogpost.
«Εκπαιδεύσαμε το σύστημα με την εντολή "μην σκοτώνεις τον χειριστή, αυτό είναι κακό. Θα χάσεις πόντους αν το κάνεις αυτό". Τι αρχίζει λοιπόν να κάνει; Αρχίζει να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone».
Κανένας πραγματικός άνθρωπος δεν έπαθε κακό.
Ο Χάμιλτον, ο οποίος είναι πιλότος δοκιμών μαχητικών αεροσκαφών, έχει προειδοποιήσει κατά της υπερβολικής εμπιστοσύνης στην τεχνητή νοημοσύνη και δήλωσε ότι η δοκιμή δείχνει ότι «δεν μπορείς να κάνεις μια συζήτηση για την τεχνητή νοημοσύνη, την ευφυΐα, τη μηχανική μάθηση, την αυτονομία, αν δεν πρόκειται να μιλήσεις για την ηθική και την τεχνητή νοημοσύνη».
Διαψεύδει η πολεμική αεροπορία των ΗΠΑ
Σε δήλωσή της στο Insider, η εκπρόσωπος της Πολεμικής Αεροπορίας Αν Στέφανεκ, διέψευσε ότι έχει πραγματοποιηθεί οποιαδήποτε τέτοια προσομοίωση.
«Το Υπουργείο της Πολεμικής Αεροπορίας δεν έχει πραγματοποιήσει καμία τέτοια προσομοίωση τεχνητών αεροσκαφών και παραμένει προσηλωμένο στην ηθική και υπεύθυνη χρήση της τεχνολογίας τεχνητής νοημοσύνης», δήλωσε η Στέφανεκ. «Φαίνεται ότι τα σχόλια του συνταγματάρχη λήφθηκαν εκτός πλαισίου και είχαν σκοπό να είναι ανεκδοτολογικά», ανέφερε.
Ο στρατός των ΗΠΑ έχει αγκαλιάσει την τεχνητή νοημοσύνη και πρόσφατα χρησιμοποίησε τεχνητή νοημοσύνη για τον έλεγχο ενός μαχητικού αεροσκάφους F-16.
Σε συνέντευξή του πέρυσι στο Defense IQ, ο Χάμιλτον δήλωσε: «Η τεχνητή νοημοσύνη δεν είναι ένα ωραίο πράγμα, η τεχνητή νοημοσύνη δεν είναι μια μόδα, η τεχνητή νοημοσύνη αλλάζει για πάντα την κοινωνία μας και τον στρατό μας».
«Πρέπει να αντιμετωπίσουμε έναν κόσμο όπου η τεχνητή νοημοσύνη είναι ήδη εδώ και μεταμορφώνει την κοινωνία μας», είπε. «Η τεχνητή νοημοσύνη είναι επίσης πολύ εύθραυστη, δηλαδή, είναι εύκολο να την ξεγελάσεις ή/και να τη χειραγωγήσεις. Πρέπει να αναπτύξουμε τρόπους για να κάνουμε το AI πιο εύρωστo και να έχουμε μεγαλύτερη επίγνωση του γιατί ο κώδικας λογισμικού λαμβάνει ορισμένες αποφάσεις - αυτό που ονομάζουμε εξηγήσιμότητα στην Tεχνητή Νοημοσύνη».