Φοβόμαστε τους κινδύνους της τεχνητής νοημοσύνης

Share:


Ο Sam Altman, Διευθύνων Σύμβουλος της OpenAI, της εταιρείας που ανέπτυξε την εφαρμογή τεχνητής νοημοσύνης ChatGPT, έχει προειδοποιήσει ότι η τεχνολογία ενέχει πραγματικούς κινδύνους καθώς αναδιαμορφώνει την κοινωνία.

Ο Altman, 37 ετών, τόνισε ότι οι ρυθμιστικές αρχές και η κοινωνία θα πρέπει να προσέξουν με την τεχνολογία για να προφυλαχθούν από πιθανές αρνητικές συνέπειες για την ανθρωπότητα. “Πρέπει να είμαστε προσεκτικοί εδώ”, δήλωσε ο Altman στο ABC News την Πέμπτη, προσθέτοντας: “Νομίζω ότι οι άνθρωποι θα πρέπει να είναι χαρούμενοι που φοβόμαστε “.

openai

“Ανησυχώ ιδιαίτερα ότι αυτά τα μοντέλα θα μπορούσαν να χρησιμοποιηθούν για παραπληροφόρηση μεγάλης κλίμακα”, είπε ο Altman. “Τώρα που γίνονται καλύτερα στη σύνταξη κώδικα υπολογιστή, θα μπορούσαν να χρησιμοποιηθούν για επιθετικές κυβερνοεπιθέσεις”.

Ωστόσο, παρά τους κινδύνους, ανέφερε, θα μπορούσαν να είναι “η μεγαλύτερη τεχνολογία που έχει αναπτύξει μέχρι τώρα η ανθρωπότητα”.

Η προειδοποίηση ήρθε καθώς η OpenAI κυκλοφόρησε την τελευταία έκδοση του μοντέλου τεχνητής νοημοσύνης, GPT-4, σε λιγότερο από τέσσερις μήνες από την κυκλοφορία της αρχικής έκδοσης, κάτι που την καθιστά την ταχύτερα αναπτυσσόμενη εφαρμογή καταναλωτών στην ιστορία.

Στη συνέντευξη, ο μηχανικός τεχνητής νοημοσύνης ανέφερε ότι, παρόλο που η νέα έκδοση δεν είναι “τέλεια”, είχε πιάσει ένα 90% στις εξετάσεις του δικηγορικού συλλόγου των ΗΠΑ και σχεδόν άριστα στο τεστ μαθηματικών SAT γυμνασίου. Θα μπορούσε επίσης να γράψει κώδικα υπολογιστή στις περισσότερες γλώσσες προγραμματισμού.

Οι φόβοι για την τεχνητή νοημοσύνη που αντιμετωπίζει ο καταναλωτής για την τεχνητή νοημοσύνη επικεντρώνονται στο ότι οι μηχανές θα αντικαταστήσουν τον άνθρωπο. Αλλά ο Altman επεσήμανε ότι η τεχνητή νοημοσύνη λειτουργεί μόνο υπό την καθοδήγηση των ανθρώπων.

“Περιμένει κάποιος να του δώσει οδηγίες”, ανέφερε. “Είναι ένα εργαλείο που είναι πολύ υπό τον ανθρώπινο έλεγχο”, αλλά δήλωσε ότι ανησυχεί για το ποιοι άνθρωποι θα έχουν τον έλεγχο των οδηγιών.

“Θα υπάρξουν άνθρωποι που δεν θέτουν κάποια από τα όρια ασφαλείας που ορίζουμε. Η κοινωνία, νομίζω, έχει περιορισμένο χρόνο για να καταλάβει πώς να αντιδράσει, πώς να το ρυθμίσει, και πώς να το διαχειριστεί όλο αυτό”.

Ο Διευθύνων Σύμβουλος της Tesla, Elon Musk, ένας από τους πρώτους επενδυτές στην OpenAI όταν ήταν ακόμη μη κερδοσκοπική εταιρεία, έχει εκδώσει επανειλημμένα προειδοποιήσεις που αναφέρουν ότι η τεχνητή νοημοσύνη είναι πιο επικίνδυνη από ένα πυρηνικό όπλο.

Ο Musk εξέφρασε την ανησυχία του για το ότι η Microsoft, η οποία φιλοξενεί το ChatGPT στη μηχανή αναζήτησης Bing, είχε διαλύσει το τμήμα επίβλεψης δεοντολογίας. “Δεν υπάρχει ρυθμιστική εποπτεία της τεχνητής νοημοσύνης, κάτι το οποίο είναι ένα *μείζον* πρόβλημα. Ζητώ ρύθμιση για την ασφάλεια της τεχνητής νοημοσύνης για πάνω από μια δεκαετία!” ανέφερε ο Musk σε ένα tweet τον Δεκέμβριο.

Αυτή την εβδομάδα, ο Musk ανέφερε επίσης στο Twitter: “Τι θα μας μείνει να κάνουμε εμείς οι άνθρωποι;”

Την Πέμπτη, ο Altman αναγνώρισε ότι η τελευταία έκδοση χρησιμοποιεί επαγωγικό συλλογισμό και όχι απομνημόνευση, μια διαδικασία που μπορεί να οδηγήσει σε παράξενες απαντήσεις.

“Αυτό που προσπαθώ να προειδοποιήσω περισσότερο τους ανθρώπους είναι αυτό που ονομάζουμε “πρόβλημα των ψευδαισθήσεων””, ανέφερε ο Altman. “Το μοντέλο θα αναφέρει με σιγουριά πράγματα εξ ολοκλήρου κατασκευασμένα σαν να ήταν γεγονότα.

“Ο σωστός τρόπος να σκεφτόμαστε τα μοντέλα που δημιουργούμε είναι σαν μια μηχανή συλλογισμού, και όχι σαν μια βάση δεδομένων από γεγονότα”

Αν και η τεχνολογία θα μπορούσε να λειτουργήσει σαν βάση δεδομένων γεγονότων, “αυτό που θέλουμε να κάνουν είναι κάτι πιο κοντά στην ικανότητα της λογικής, και όχι στην απομνημόνευση”.

Το τι βγάζετε εξαρτάται άμεσα από το τι βάζετε.

Subscribe to Blog via Email





Πηγήεδώ

Share:

Leave a reply