Ο διευθύνων σύμβουλος της Google δήλωσε ότι οι ανησυχίες για την τεχνητή νοημοσύνη τον κρατούν ξύπνιο τη νύχτα και ότι η τεχνολογία μπορεί να είναι «πολύ επιβλαβής» εάν αναπτυχθεί λανθασμένα. Ο Sundar Pichai ζήτησε επίσης ένα παγκόσμιο ρυθμιστικό πλαίσιο για την τεχνητή νοημοσύνη, παρόμοιο με τις συνθήκες που χρησιμοποιούνται για τη ρύθμιση της χρήσης πυρηνικών όπλων, καθώς προειδοποίησε ότι ο ανταγωνισμός για την παραγωγή προόδου στην τεχνολογία θα μπορούσε να οδηγήσει σε παραμερισμό ανησυχιών για την ασφάλεια.
Σε μια συνέντευξη στο πρόγραμμα 60 λεπτών του CBS , ο Pichai είπε ότι η αρνητική πλευρά της τεχνητής νοημοσύνης του έφερε ανήσυχες νύχτες. «Μπορεί να είναι πολύ επιβλαβές εάν αναπτυχθεί λανθασμένα και δεν έχουμε όλες τις απαντήσεις ακόμα εκεί – και η τεχνολογία προχωρά γρήγορα. Δηλαδή με κρατάει ξύπνιο το βράδυ; Απολύτως», ανέφερε χαρακτηριστικά.
Πλαίσιο ασφάλειας
Η μητρική της Google, η Alphabet, κατέχει την εταιρεία τεχνητής νοημοσύνης DeepMind με έδρα το Ηνωμένο Βασίλειο και έχει ξεκινήσει ένα chatbot με τεχνητή νοημοσύνη, το Bard, ως απάντηση στο ChatGPT, ένα chatbot που αναπτύχθηκε από την αμερικανική εταιρεία τεχνολογίας OpenAI, το οποίο έχει γίνει φαινόμενο από την κυκλοφορία του τον Νοέμβριο. Ο Pichai είπε ότι οι κυβερνήσεις θα πρέπει να βρουν παγκόσμια πλαίσια για τη ρύθμιση της τεχνητής νοημοσύνης όπως αυτή αναπτύχθηκε. Τον περασμένο μήνα, χιλιάδες ειδικοί, ερευνητές και υποστηρικτές της τεχνητής νοημοσύνης – συμπεριλαμβανομένου του ιδιοκτήτη του Twitter, Elon Musk, – υπέγραψαν μια επιστολή που ζητούσε να σταματήσει η δημιουργία «γιγάντων» AI για τουλάχιστον έξι μήνες, εν μέσω ανησυχιών ότι η ανάπτυξη της τεχνολογίας θα μπορούσε να προκαλέσει εκτός ελέγχου. Ερωτηθείς εάν απαιτούνται πλαίσια τύπου πυρηνικών όπλων, ο Pichai είπε: «Θα το χρειαζόμασταν αυτό».
Η τεχνολογία τεχνητής νοημοσύνης πίσω από το ChatGPT και το Bard , γνωστό ως μοντέλο μεγάλης γλώσσας, εκπαιδεύεται σε ένα τεράστιο πλήθος δεδομένων που λαμβάνονται από το Διαδίκτυο και είναι σε θέση να παράγει εύλογες απαντήσεις σε προτροπές από χρήστες σε μια σειρά από μορφές, από ποιήματα έως ακαδημαϊκά δοκίμια και κωδικοποίηση λογισμικού. Το ισοδύναμο που παράγει εικόνα, σε συστήματα όπως το Dall-E και το Midjourney, έχει επίσης προκαλέσει ένα μείγμα έκπληξης και συναγερμού δημιουργώντας ρεαλιστικές εικόνες όπως ο πάπας με ένα …τζάκετ.
Ο Pichai πρόσθεσε ότι η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει βλάβη μέσω της ικανότητάς της να παράγει παραπληροφόρηση. «Θα είναι δυνατό με την τεχνητή νοημοσύνη να δημιουργηθεί, ξέρετε, ένα βίντεο εύκολα. Όπου θα μπορούσε να είναι ο Scott (Pelley, ο δημοσιογράφος του CBS) που έλεγε κάτι, ή εγώ έλεγα κάτι, και, δεν το είπαμε ποτέ αυτό. Και θα μπορούσε να φαίνεται ακριβές. Αλλά, σε κοινωνική κλίμακα, ξέρετε, μπορεί να προκαλέσει πολύ κακό».
Το "μαύρο κουτί"
Ο επικεφαλής της Google πρόσθεσε ότι η έκδοση της τεχνολογίας AI της που είναι τώρα διαθέσιμη στο κοινό, μέσω του chatbot Bard, ήταν ασφαλής. Πρόσθεσε ότι η Google ήταν υπεύθυνη για την αναστολή της δοκιμής πιο προηγμένων εκδόσεων του Bard. Τα σχόλια του Pichai έγιναν καθώς οι New York Times ανέφεραν την Κυριακή ότι η Google κατασκεύαζε μια νέα μηχανή αναζήτησης με τεχνητή νοημοσύνη ως απάντηση στην αντίπαλη υπηρεσία της Microsoft Bing, η οποία έχει ενσωματωθεί στην τεχνολογία chatbot πίσω από το ChatGPT. Ο Pichai παραδέχτηκε ότι η Google δεν κατανοούσε πλήρως πώς η τεχνολογία AI της παρήγαγε ορισμένες απαντήσεις. «Υπάρχει μια πτυχή αυτού που ονομάζουμε, όλοι εμείς στο πεδίο την αποκαλούμε «μαύρο κουτί». Ξέρεις, δεν καταλαβαίνεις πλήρως. Και δεν μπορείς να πεις γιατί το είπε αυτό ή γιατί έγινε λάθος».
Ερωτηθείς από τον δημοσιογράφο του CBS Scott Pelley γιατί η Google κυκλοφόρησε δημόσια το Bard όταν δεν καταλάβαινε πλήρως πώς λειτουργούσε, ο Pichai απάντησε: «Επιτρέψτε μου να το θέσω έτσι. Δεν νομίζω ότι καταλαβαίνουμε πλήρως ούτε πώς λειτουργεί ο ανθρώπινος νους». Παραδέχτηκε, μάλιστα, ότι η κοινωνία δεν φαίνεται να είναι έτοιμη για γρήγορη πρόοδο στην τεχνητή νοημοσύνη. Είπε ότι «φαίνεται να υπάρχει αναντιστοιχία» μεταξύ του ρυθμού με τον οποίο η κοινωνία σκέφτεται και προσαρμόζεται στην αλλαγή σε σύγκριση με τον ρυθμό με τον οποίο εξελίσσεται η τεχνητή νοημοσύνη. Ωστόσο, σημείωσε ότι τουλάχιστον οι άνθρωποι είναι σε εγρήγορση για τους πιθανούς κινδύνους. «Σε σύγκριση με οποιαδήποτε άλλη τεχνολογία, έχω δει περισσότερους ανθρώπους να ανησυχούν για αυτήν νωρίτερα στον κύκλο ζωής της. Οπότε νιώθω αισιόδοξος», είπε. Ο Pichai είπε ότι ο οικονομικός αντίκτυπος της τεχνητής νοημοσύνης θα είναι σημαντικός, επειδή θα επηρεάσει τα πάντα. Και πρόσθεσε: «Αυτό θα επηρεάσει κάθε προϊόν σε κάθε εταιρεία και γι' αυτό πιστεύω ότι είναι μια πολύ, πολύ βαθιά τεχνολογία».
Τέλος, χρησιμοποιώντας ένα ιατρικό παράδειγμα, ο Pichai εκτίμησε ότι σε πέντε έως 10 χρόνια ένας ακτινολόγος θα μπορούσε να συνεργαστεί με έναν βοηθό τεχνητής νοημοσύνης για να βοηθήσει στην ιεράρχηση των περιπτώσεων. Πρόσθεσε ότι «εργαζόμενοι στη γνώση» όπως συγγραφείς, λογιστές, αρχιτέκτονες και μηχανικοί λογισμικού θα επηρεαστούν…