ΚΛΕΙΣΙΜΟ
Loading...
 

Το έξυπνο αερόστατο της Google είναι γεγονός

Το αερόστατο χαράζει πορεία μόνο του υπολογίζοντας τους εξωγενής παράγοντες

Kathimerini.gr

Eνα ακυβέρνητο αερόστατο πηγαίνει όπου φυσάει ο άνεμος, ένα έξυπνο αερόστατο, αντιθέτως, γνωρίζει ποιοι άνεμοι πνέουν ή θα πνεύσουν και επιλέγει τα ρεύματα που θα το μεταφέρουν ταχύτερα στον προορισμό του. Σε διαφορετικά ύψη οι άνεμοι έχουν διαφορετικές διευθύνσεις κι έτσι το αερόστατο μπορεί, κερδίζοντας ή χάνοντας ύψος, να αλλάζει πορεία. Ως εδώ καλά. Οταν όμως το αερόστατο ανακαλύπτει μόνο του μεθόδους πλοήγησης που δεν είχαν φανταστεί οι προγραμματιστές του, είναι μια ευκαιρία να κατανοήσουμε την εποχή της τεχνητής νοημοσύνης.

«Ενιωσα πιο έξυπνος και πιο ηλίθιος από ποτέ», έγραψε ο επικεφαλής του προγράμματος των αεροστάτων της Google, Σαλβατόρε Καντίντο, εξηγώντας ότι αυτό που αρχικά θεώρησε ως δυσλειτουργία ήταν στην πραγματικότητα απόδειξη ότι το σύστημα τον είχε ξεπεράσει. Το αερόστατο δεν είχε ξεφύγει από την πορεία του, απλώς είχε ανακαλύψει τα γνωστά στους ιστιοπλόους τακ, τις αναστροφές που επιτρέπουν την πλοήγηση κόντρα στον άνεμο και έτσι, παρότι η διαδρομή δεν έβγαζε νόημα στον χάρτη, ολοκλήρωσε το ταξίδι από το Πουέρτο Ρίκο μέχρι το Περού σημειώνοντας ρεκόρ ταχύτητας. Οι σχεδιαστές του συστήματος το είχαν τροφοδοτήσει με όλα τα δεδομένα και το είχαν αφήσει να χαράξει την πορεία του, εικάζοντας ότι η ταχύτερη οδός θα ήταν η ευθεία. Ομοίως, όταν του έδωσαν εντολή να μείνει σταθερό πάνω από ένα μέρος, περίμεναν ότι θα κινείτο σε κύκλους, εκείνο όμως διαπίστωσε ότι ήταν πιο αποτελεσματικό να σχηματίζει «οκτάρια». Το πρόγραμμα Google Loon διακόπηκε τον Ιανουάριο, μετά σχεδόν δέκα χρόνια πτήσεων, καθώς η εταιρεία ανακοίνωσε ότι δεν βρήκε μοντέλο κερδοφορίας για τη βασική αποστολή του, την παροχή Ιντερνετ σε απομακρυσμένες περιοχές. Στο μεταξύ, αερόστατα που πλοηγούνται στη στρατόσφαιρα χρησιμοποιώντας τεχνητή νοημοσύνη (άγνωστο ποιας εταιρείας) δοκιμάζονται για την ανάπτυξη συστημάτων ολικής επιτήρησης περιοχών, για λογαριασμό του Πενταγώνου. Σε κάθε περίπτωση, η εμπλοκή της Google στην ανάπτυξη τεχνολογιών τεχνητής νοημοσύνης για πολεμικές εφαρμογές προξένησε αντιδράσεις υπαλλήλων της, που οδήγησαν στην έξοδό της από ένα τέτοιο πρόγραμμα, το project «Maven».

Η διαμάχη

Στο επίκεντρο της διαμάχης βρίσκονται οι εφαρμογές τεχνητής νοημοσύνης που επιτρέπουν στα οπλικά συστήματα να διαλέξουν μόνα τους στόχους και να τους εξουδετερώσουν. Ερευνες της κοινής γνώμης σε 28 χώρες καταγράφουν μεγάλη πλειοψηφία εναντίον της χρήσης τεχνητής νοημοσύνης για την αυτονόμηση των οπλικών συστημάτων, παρ’ όλ’ αυτά, συμβουλευτική επιτροπή της αμερικανικής κυβέρνησης, με επικεφαλής τον πρώην διευθύνοντα σύμβουλο της Google Ερικ Σμιτ, πρόσφατα αποφάνθηκε ότι «δεν θα ήταν ηθικό» να απαγορευθεί η τεχνολογία αυτή. Το σίγουρο είναι ότι όσο περνάει ο καιρός και οι προσπάθειες απαγόρευσης μέσω διεθνούς συνθήκης, που ξεκίνησαν το 2014, μένουν στο κενό, τόσο λιγότερες είναι οι πιθανότητες ουσιαστικού ελέγχου.

Οι κίνδυνοι, ωστόσο, δεν δια-φεύγουν σε κανέναν. Ο εκπρόσωπος της Microsoft στην ίδια επιτροπή σημείωσε ότι η στροφή στα αυτόνομα συστήματα που αντιδρούν με τη μέγιστη δυνατή ταχύτητα μπορεί να οδηγήσει σε κλιμάκωση συγκρούσεων. Στο μέλλον, η τεχνητή νοημοσύνη θα έχει επιλέξει στόχους και θα τους έχει πλήξει πριν καν οι χειριστές αντιληφθούν ότι γίνεται πόλεμος. Φυσικά, σε πρώτη φάση τα συστήματα αυτά δικαιολογούνται ως αμυντικά (π.χ. αυτόνομα αντιαεροπορικά συστήματα εναντίον σμηνών από αυτόνομα επιθετικά drones), αλλά στην πορεία, υπάρχει ο κίνδυνος να λαμβάνει η τεχνητή νοημοσύνη όλο και περισσότερες αποφάσεις ζωής ή θανάτου, πάντα με το σκεπτικό ότι είναι ταχύτερη και αποτελεσματικότερη. Σε μια ακραία αλλά όχι απίθανη εκδοχή, θα θεωρηθεί λογικό να ανατεθεί σε αλγορίθμους ώς και η διαχείριση των πυρηνικών οπλοστασίων (οι διαδικασίες εκτόξευσης των όπλων αυτών είναι ήδη σε πολύ μεγάλο βαθμό αυτοματοποιημένες) και τότε το μόνο που μπορεί κανείς να ευχηθεί στην ανθρωπότητα είναι καλή τύχη.  

Ενα τέτοιο σύστημα μπορεί να φθάσει έως τον παραλογισμό

Τα κράτη επιλέγουν να κρατούν μυστικές πολλές από τις στρατιωτικές εφαρμογές της τεχνητής νοημοσύνης, ενώ γίνεται προσπάθεια να τεθούν κάποιοι κανόνες, π.χ. τα συστήματα να μην είναι «μαύρα κουτιά», αλλά να μπορεί ανά πάσα στιγμή να εξηγηθεί το τι κάνουν και πώς λειτουργούν.

Το βασικότερο –και αυτό που έχει δώσει τροφή σε άφθονα σενάρια επιστημονικής φαντασίας– είναι να μην υπάρχουν περιθώρια αυτονόμησής τους επειδή, για παράδειγμα, παρερμήνευσαν μια εντολή. Ενα από τα πειράματα τεχνητής νοημοσύνης που δείχνουν τον παραλογισμό στον οποίο μπορεί να φθάσει ένα σύστημα ήταν μια δοκιμή σε περιβάλλον βιντεοπαιχνιδιού, στην οποία το σύστημα έλαβε εντολή να σκοτώσει τον αντίπαλο και να μείνει στο παιχνίδι όσο περισσότερο γινόταν. Εξετάζοντας όλα τα πιθανά ενδεχόμενα, το σύστημα ανακάλυψε πως αν αυτοκτονούσε μαζί με τον αντίπαλο, θα κέρδιζε τόσους πόντους από την εξολόθρευση του αντιπάλου, ώστε να συνεχίσει να παίζει επ’ άπειρον, αυτοκτονώντας ξανά και ξανά.

Γενικότερα, η τεχνητή νοημοσύνη προσφέρει το ιδανικό περιβάλλον για την αποποίηση ευθυνών, αφού ούτε οι σχεδιαστές μπορούν να ξέρουν πώς ακριβώς θα λειτουργήσει ένα σύστημα που συνεχώς μαθαίνει, ούτε αυτοί που το προμηθεύονται, ούτε αυτοί που το λειτουργούν. Επιπλέον, τα αυτόνομα συστήματα μπορούν να δράσουν αποκρύπτοντας τον εντολέα τους και χωρίς ηθικές αναστολές, νομικούς ενδοιασμούς ή ανθρώπινους φόβους, καθιστώντας τα πιθανούς «στρατιώτες» για κάθε είδους σκοτεινές αποστολές. 

Στην πραγματικότητα, δεν ασκείται ο απαραίτητος έλεγχος ούτε πάνω στις «ειρηνικές» εφαρμογές της τεχνητής νοημοσύνης, όπως φάνηκε από τα όσα συνέβησαν –και πάλι– στην Google. Επειτα από χρόνια που η εταιρεία προσπαθούσε να αποδείξει ότι διαθέτει την ωριμότητα που απαιτείται για να διαχειριστεί ένα εργαλείο τόσο κολοσσιαίας ισχύος, κάτι πήγε πολύ στραβά, τον Δεκέμβριο. Η υπεύθυνη του τμήματος δεοντολογίας εφαρμογών τεχνητής νοημοσύνης, Τίμνιτ Γκέμπρου, υποχρεώθηκε σε παραίτηση όταν της ζητήθηκε να αλλάξει το περιεχόμενο επιστημονικής δημοσίευσης που έθετε στο τραπέζι σημαντικά ζητήματα. Προ διετίας, η Γκέμπρου ήταν η επικεφαλής της έρευνας που διαπίστωσε ότι οι αλγόριθμοι αναγνώρισης προσώπου λειτουργούν σωστά για τους λευκούς άνδρες, αλλά έχουν πολύ μεγαλύτερες πιθανότητες να κάνουν λάθος (άρα να ενοχοποιήσουν αθώους) όταν πρόκειται για άτομα άλλης φυλής.

Η πιο πρόσφατη έρευνά της εγείρει ζητήματα για τις απροσδόκητες συνέπειες των εφαρμογών τεχνητής νοημοσύνης στην αναγνώριση φωνής και στη γλωσσική επεξεργασία. Ως μαύρη γυναίκα, πρόσφυγας από την Ερυθραία, που σπούδασε στο Πανεπιστήμιο Στάνφορντ, η Γκέμπρου τόλμησε να δει την τεχνητή νοημοσύνη από τη σκοπιά των ανισοτήτων ισχύος – και διαπίστωσε ότι αν αφεθεί η τεχνολογία να εξελίσσεται ως έχει, θα τις εδραιώσει.

 

ΣΧΕΤΙΚΑ TAGS
ΣΧΟΛΙΑΣΤΕ

Άλλα άρθρα συγγραφέα

Kathimerini.gr

Παράξενα: Τελευταία Ενημέρωση

X