Η OpenAI βρήκε κάτι επικίνδυνο για την ανθρωπότητα

Η OpenAI βρήκε κάτι επικίνδυνο για την ανθρωπότητα

Τέσσερις ημέρες τελικά διήρκεσε η «εξορία» του Sam Altman από την OpenAi, αλλά ακόμα και μετά την επιστροφή του στη θέση του CEO της εταιρείας του ChatGPT, οι λόγοι της απόλυσής του δεν είναι ξεκάθαροι.

Όπως αποκαλύπτει τώρα το Reuters, είχε προηγηθεί επιστολή προς το διοικητικό συμβούλιο, με την οποία αρκετοί ερευνητές της OpenAI προειδοποιούσαν ότι είχε γίνει μία ισχυρή ανακάλυψη στον τομέα της τεχνητής νοημοσύνης, η οποία σύμφωνα με τους ισχυρισμούς τους, θα μπορούσε να απειλήσει την ανθρωπότητα.

Η επιστολή αυτή και ο συγκεκριμένος αλγόριθμος τεχνητής νοημοσύνης ήταν βασικές εξελίξεις που οδήγησαν στην απόφαση του διοικητικού συμβουλίου για αποπομπή του Altman, ισχυρίζονται δύο άτομα που έχουν γνώση των εξελίξεων και μίλησαν στο Reuters.

Ο Altman είναι κεντρικό πρόσωπο στην αλματώδη ανάπτυξη της λεγόμενης generative AI το τελευταίο διάστημα, ενώ η είδηση της απόλυσής του προκάλεσε ανταρσία μέσα στην OpenAI. Όταν περισσότεροι από 700 υπαλλήλους της εταιρείας απείλησαν να αποχωρήσουν, ο Altman επέστρεψε στη θέση του CEO.

Σύμφωνα με το Reuters, η επιστολή αυτή ήταν ένας παράγοντας σε μία μακρά λίστα παραπόνων του διοικητικού συμβουλίου, που τελικά οδήγησαν στην απόλυση. Ανάμεσα σε αυτά ήταν οι ανησυχίες για την εμπορική εκμετάλλευση της τεχνητής νοημοσύνης εκ μέρους της OpenAI, την ώρα που η εταιρεία δεν έχει την πλήρη κατανόηση των συνεπειών της τεχνολογίας.

Παρότι η OpenAI αρνήθηκε να σχολιάσει τις πληροφορίες του Reuters, εντούτοις εσωτερικό μήνυμα που έστειλε στο προσωπικό η Mira Murati, εκ των κορυφαίων στελεχών της εταιρείας, μιλούσε για το project Q* καθώς και για κάποια επιστολή προς το δ.σ.

Κάποιοι μέσα στην OpenAI πιστεύουν ότι το Q* (προφέρεται Q-Star), θα μπορούσε να είναι κάποια ανακάλυψη στην προσπάθεια της εταιρείας να κινηθεί προς τη λεγόμενη τεχνητή γενική νοημοσύνη (artificial general intelligence – AGI). Το AGI είναι τα αυτόνομα συστήματα που μπορούν να ξεπεράσουν τον άνθρωπο στις περισσότερες εργασίες που παράγουν οικονομική αξία.

Όταν του δόθηκαν τεράστιοι υπολογιστικοί πόροι, το νέο μοντέλο μπόρεσε να λύσει κάποια μαθηματικά προβλήματα, εξήγησε μία από τις πηγές του Reuters. Παρότι σε αυτή τη φάση μπορούσε απλά να λύσει μαθηματικά επιπέδου δημοτικού σχολείου, εντούτοις το γεγονός ότι το μοντέλο της OpenAI κατάφερε να περάσει αυτά τα τεστ έκανε τους επιστήμονες πολύ αισιόδοξους για τη μελλοντική επιτυχία του Q*.

Για τους επιστήμονες, τα μαθηματικά είναι το «κλειδί» για την ανάπτυξη της τεχνητής νοημοσύνης. Αυτή τη στιγμή, τα μοντέλα generative AI είναι καλά στο να γράφουν και να μεταφράζουν. Το κάνουν προβλέποντας με τη στατιστική την επόμενη λέξη, κάτι που σημαίνει ότι οι απαντήσεις τους στην ίδια ερώτηση συχνά διαφέρουν. Όμως, εάν κατακτήσουν την ικανότητα των μαθηματικών, όπου η απάντηση σε κάθε ερώτηση είναι μία και μοναδική, αυτό θα σημαίνει ότι θα έχουν φτάσει σε ένα επίπεδο όπου η λογική τους θα μοιάζει πια με την ανθρώπινη νοημοσύνη.

Στην επιστολή τους προς το δ.σ., οι ερευνητές της εταιρείας προειδοποίησαν για τη δύναμη της τεχνητής νοημοσύνης και τους πιθανούς κινδύνους. Παρότι δεν έχει γίνει γνωστό σε ποιους κινδύνους αναφέρονταν ακριβώς, επιστήμονες έχουν εκφράσει την ανησυχία για το τι θα συνέβαινε, για παράδειγμα, εάν οι έξυπνες μηχανές θεωρήσουν ότι η καταστροφή της ανθρωπότητας αποτελεί την αποστολή τους ή είναι προς το συμφέρον τους.

Μία ημέρα πριν την απόλυσή του, ο Altman είχε αναφερθεί σε κάποια μεγάλη ανακάλυψη.  «Τέσσερις φορές έως τώρα στην ιστορία της OpenAI, η πιο πρόσφατη συνέβη μόλις τις τελευταίες δύο εβδομάδες, κατάφερα να βρίσκομαι στο δωμάτιο, τη στιγμή που κάπως σπρώχνουμε το πέπλο της άγνοιας προς τα πίσω και τα σύνορα της ανακάλυψης προς τα μπροστά. Και το να το κάνεις αυτό είναι η ύψιστη επαγγελματική τιμή στη ζωή ενός ανθρώπου», είπε στη σύνοδο κορυφής της Οικονομικής Συνεργασίας Ασίας-Ειρηνικού.

Πηγή: moneyreview.gr

Ακολουθήστε το Madata.GR στο Google News Madata.GR in Google News

Δείτε ακόμα