Η έρευνα για την τεχνητή νοημοσύνη προχωρά με εντυπωσιακούς ρυθμούς σήμερα. Όλο και περισσότεροι παράγοντες του κλάδου αναμένουν πλέον την άφιξη της πρώτης τεχνητής γενικής νοημοσύνης (AGI) , με δυνατότητες συλλογισμού ανώτερες από αυτές των ανθρώπων, μέσα σε λίγα χρόνια. Μια προοπτική τόσο συναρπαστική όσο και ανησυχητική, και για καλό λόγο: οι ειδικοί πιστεύουν εδώ και καιρό ότι ένα τέτοιο σύστημα θα μπορούσε να βλάψει την ανθρωπότητα και να σπείρει πρωτοφανή διχόνοια στον πολιτισμό μας.
Είναι ένα θέμα που έχει συχνά διερευνηθεί από συγγραφείς μυθοπλασίας σε έργα όπως το 2001: Η Οδύσσεια του Διαστήματος , ο Εξολοθρευτής ή το Μάτριξ, για να αναφέρουμε μόνο μερικά. Όσο εντυπωσιακά όμως κι αν είναι, αυτά τα σενάρια παραμένουν προφανώς αρκετά «κινηματογραφικά».
Αν μια εξαιρετικά προηγμένη τεχνητή νοημοσύνη βαλθεί ποτέ να βλάψει την ανθρωπότητα, μπορεί να το κάνει με πιο ανεπαίσθητους και λιγότερο ακραίους τρόπους. Για να αποφευχθεί μια πιθανή καταστροφή, πρέπει να θεσπιστεί τώρα ένα ισχυρό σύνολο κατευθυντήριων γραμμών. Και αυτό ακριβώς είναι το νόημα της τελευταίας τεχνικής εργασίας του DeepMind , την οποία εντόπισε το Ars Technica .
Για όσους δεν είναι εξοικειωμένοι, αυτός ο κλάδος της Google είναι μια από τις πιο προηγμένες εταιρείες στον κλάδο. Από τη θεωρία παιγνίων (AlphaZero, AlphaGo) έως τη δομική βιολογία (AlphaFold), την πρόγνωση καιρού (Gencast) και την πυρηνική σύντηξη, έχει αναπτύξει πολλά συστήματα που βασίζονται στην τεχνητή νοημοσύνη για την αντιμετώπιση προβλημάτων που κάποτε φαίνονταν εντελώς ανέφικτα.
Πρόσφατα, οι ερευνητές του δημοσίευσαν μια εκτενή εργασία που διερευνά διαφορετικές προσεγγίσεις για τον περιορισμό των κινδύνων που σχετίζονται με την ανάπτυξη μιας AGI. Εστιάζει ιδιαίτερα στους διαφορετικούς τύπους κινδύνων που σχετίζονται με ένα τέτοιο σύστημα. Συνολικά, οι συγγραφείς εντόπισαν τέσσερις ευρείες κατηγορίες.
Ένα όπλο για κακοπροαίρετους ανθρώπους
Το πρώτο αφορά αυτό που το DeepMind περιγράφει ως «κακοποίηση ». Σε αυτήν την περίπτωση, δεν είναι το ίδιο το σύστημα που είναι άμεσα προβληματικό, αλλά οι άνθρωποι που το χειρίζονται. Φαίνεται σαφές ότι ένα εργαλείο τόσο ισχυρό όσο μια AGI θα μπορούσε να προκαλέσει σοβαρή ζημιά εάν πέσει στα χέρια κακόβουλων παραγόντων. Για παράδειγμα, θα μπορούσαν να του ζητήσουν να εκμεταλλευτεί κρίσιμα τρωτά σημεία στον κυβερνοχώρο, ιδίως σε κρίσιμες υποδομές όπως οι πυρηνικοί σταθμοί, για να δημιουργήσει τρομερά βακτηριολογικά όπλα, και ούτω καθεξής.
Συνεπώς, η DeepMind πιστεύει ότι οι εταιρείες πρέπει να εφαρμόσουν εξαιρετικά ισχυρά πρωτόκολλα επικύρωσης και ασφάλειας, ξεκινώντας από τώρα. Οι συγγραφείς τονίζουν επίσης τη σημασία της ανάπτυξης τεχνικών που αναγκάζουν τα μοντέλα τεχνητής νοημοσύνης να «ξεχνούν» δεδομένα, έτσι ώστε να μπορούν να ανακάμψουν σε περίπτωση έκτακτης ανάγκης, εάν αρχίσει να διαφαίνεται το χειρότερο σενάριο.
Σφάλματα ευθυγράμμισης
Η δεύτερη κατηγορία περιλαμβάνει όλα τα ζητήματα που σχετίζονται με αυτό που ονομάζεται ευθυγράμμιση — διασφαλίζοντας ότι αυτά τα μοντέλα Τεχνητής Νοημοσύνης «κατανοούν» τις ανθρώπινες αξίες και προσδοκίες και τις ιεραρχούν κατά την ανάληψη δράσης. Ένα μη ευθυγραμμισμένο σύστημα, από την άλλη πλευρά, μπορεί επομένως να αναλάβει ενέργειες για τις οποίες γνωρίζει πολύ καλά ότι δεν αντιστοιχούν στο όραμα του δημιουργού τους.
Αυτό είναι το σενάριο που εμφανίζεται συχνότερα στη μυθοπλασία. Για παράδειγμα, αν ο HAL 9000 επιχειρήσει να εξαλείψει το πλήρωμα του πλοίου στο 2001: A Space Odyssey , είναι επειδή θεωρεί την επιτυχία της αποστολής πιο πολύτιμη από την ανθρώπινη ζωή. Το ίδιο ισχύει και για το Skynet στην ιστορία του Terminator : ενώ αρχικά σχεδιάστηκε για να υπερασπιστεί την ανθρωπότητα, τελικά κατέληξε στο συμπέρασμα ότι επρόκειτο για μια απειλή που άξιζε να εξαλειφθεί πάση θυσία.
Για να αποφευχθεί αυτό το είδος σεναρίου, το DeepMind προσφέρει μια ενδιαφέρουσα πρώτη λύση: να εργάζονται οι AGI σε ζεύγη . Αντί να εξελίσσονται μόνα τους, θα επιβλέπονται συνεχώς από έναν αυστηρά πανομοιότυπο κλώνο, μειώνοντας έτσι τον κίνδυνο παρέκκλισης. Αλλά οι συγγραφείς της μελέτης αναγνωρίζουν ότι αυτή η προσέγγιση πιθανότατα δεν θα ήταν καθόλου αλάνθαστη.
Ταυτόχρονα, συνιστούν την εκτέλεση μελλοντικών IAG σε « εικονικά sandboxes». Αυτός ο όρος αναφέρεται σε ψηφιακούς χώρους απομονωμένους από το υπόλοιπο σύστημα, οι οποίοι σήμερα χρησιμοποιούνται κυρίως στον τομέα της κυβερνοασφάλειας για τη δοκιμή ευαίσθητων προγραμμάτων χωρίς να διακινδυνεύεται η υπόλοιπη υποδομή. Θεωρητικά, εάν προκύψει κάποιο πρόβλημα, αρκεί να απενεργοποιηθεί αυτό το sandbox για να στερηθεί η AGI από την ικανότητά της να προκαλεί βλάβη. Κάποιος θα μπορούσε, ωστόσο, να αναρωτηθεί αν ένα τόσο πονηρό σύστημα θα μπορούσε να βρει έναν τρόπο να ξεφύγει… κι εν τέλει να βλάψει την ανθρωπότητα.
Όταν η Τεχνητή Νοημοσύνη χάνει τον έλεγχο
Η τρίτη κατηγορία, με τίτλο «Σφάλματα», μπορεί να φαίνεται αρκετά παρόμοια με προβλήματα ευθυγράμμισης. Αλλά βασίζεται σε μια κρίσιμη διάκριση: εδώ, το μοντέλο Τεχνητής Νοημοσύνης δεν γνωρίζει τις επιβλαβείς συνέπειες των ενεργειών του. Νομίζει ότι κάνει το σωστό ενώ είναι εντελώς λάθος, όπως όταν η λειτουργία Επισκόπηση Τεχνητής Νοημοσύνης της Google συνέστησε στους ανθρώπους να βάζουν κόλλα στις πίτσες τους για να αποτρέψουν την ολίσθηση του λιωμένου τυριού.
Αυτό το παράδειγμα μπορεί να φαίνεται αστείο, αλλά μπορεί κανείς εύκολα να φανταστεί καταστάσεις όπου τέτοια σφάλματα (μερικές φορές ονομάζονται παραισθήσεις) θα μπορούσαν να έχουν τρομερές συνέπειες. Φανταστείτε, για παράδειγμα, ότι μια στρατιωτικά προσανατολισμένη AGI πιστεύει ότι μπορεί να ανιχνεύσει τα προειδοποιητικά σημάδια μιας πυρηνικής επίθεσης. Θα μπορούσε στη συνέχεια να προκαλέσει εντελώς αδικαιολόγητα «αντίποινα», που θα οδηγούσαν στην ολοκληρωτική εξαφάνιση ενός μέρους του πλανήτη με βάση ένα απλό λάθος.
Τα κακά νέα είναι ότι δεν υπάρχει πραγματικά μια γενικευμένη προσέγγιση για τον περιορισμό αυτών των σφαλμάτων. Θα είναι επομένως ζωτικής σημασίας η σταδιακή ανάπτυξη των μελλοντικών AGI, με αυστηρές δοκιμές σε κάθε στάδιο. Kαι πάνω απ’ όλα ο περιορισμός της ικανότητας να δρα η AI αυτόνομα, ώστε να περιοριστεί η πιθανότητα να βλάψει την ανθρωπότητα.
Μεγάλης κλίμακας διαρθρωτικοί κίνδυνοι
Η τελευταία κατηγορία, και ίσως η πιο ενδιαφέρουσα, είναι αυτό που το DeepMind ονομάζει «διαρθρωτικούς κινδύνους». Εδώ, το πρόβλημα δεν θα προέκυπτε από ένα μόνο απομονωμένο σύστημα, αλλά από τις αλληλεπιδράσεις μεταξύ αρκετών πολύπλοκων συστημάτων που είναι ενσωματωμένα σε διαφορετικά επίπεδα της κοινωνίας μας.
Μαζί, αυτά τα διαδραστικά συστήματα θα μπορούσαν να «συσσωρεύσουν συνεχώς αυξανόμενο έλεγχο στα οικονομικά και πολιτικά μας συστήματα», στη ροή των πληροφοριών και ούτω καθεξής. Με άλλα λόγια, η Γνωστική Τεχνητή Νοημοσύνη (ΓΝΗ) θα αναλάμβανε τελικά τον έλεγχο ολόκληρης της κοινωνίας μας, ενώ οι άνθρωποι δεν θα γίνονταν τίποτα περισσότερο από ασήμαντα οργανικά πιόνια σε μια τεράστια εικονική σκακιέρα. Ένα δυστοπικό σενάριο που είναι αναμφισβήτητα ανατριχιαστικό.
Οι ερευνητές επισημαίνουν ότι αυτή η κατηγορία κινδύνου πιθανότατα θα είναι η πιο δύσκολη στην αντιμετώπιση, καθώς οι πιθανές συνέπειες εξαρτώνται άμεσα από τον τρόπο λειτουργίας και αλληλεπίδρασης των ανθρώπων, των υποδομών και των θεσμών. Εύλογα συγκεντρώνει πολλές πιθανότητες να βλάψει την ανθρωπότητα.
Προς το παρόν, κανείς δεν γνωρίζει ακριβώς πότε —ή ακόμα και αν— θα αναδυθεί στην πραγματικότητα μια πραγματική Γεωγραφική Τεχνητή Νοημοσύνη (ΓΝΝ). Αλλά στο τρέχον πλαίσιο, θα ήταν πολύ απερίσκεπτο να μην λάβουμε σοβαρά υπόψη αυτή την πιθανότητα. Θα είναι επομένως ενδιαφέρον να δούμε αν η OpenAI και άλλοι θα βασίσουν τη μελλοντική τους εργασία σε αυτήν την ομολογουμένως αφηρημένη, αλλά παρόλα αυτά πολύ ενδιαφέρουσα, εργασία.
-----------Μπορεί να λάβουμε ένα μικρό ποσοστό εάν κάνετε κλικ σε έναν σύνδεσμο και αγοράσετε κάποιο προϊόν. Για περισσότερες λεπτομέρειες, εδώ μπορείτε να μάθετε πώς χρησιμοποιούμε τους συνδέσμους συνεργατών. Σας ευχαριστούμε για την υποστήριξη.
-----------
Ακολουθήστε το Gizchina Greece στο Google News για νέα και ειδήσεις στον χώρο της τεχνολογίας. Αν ψάχνετε HOT προσφορές και κουπόνια για κινητά και gadgets, κάντε εγγραφή στο κανάλι μας στο Telegram.
-----------