Business & Finance Τετάρτη 25/10/2023, 07:14
ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ

«Δεν είναι παιχνίδια»: SOS από ειδικούς για έλλειψη ασφαλείας στην ΑΙ

«Δεν είναι παιχνίδια»: SOS από ειδικούς για έλλειψη ασφαλείας στην ΑΙ

Τα συστήματα τεχνητής νοημοσύνης απειλούν την κοινωνική σταθερότητα και οι εταιρείες AI θα πρέπει να αναλάβουν την ευθύνη για όποια ζημία προκαλούν τα προϊόντα τους, προειδοποίησε χθες ομάδα ειδικών, στην οποία συγκαταλέγονται και δύο «νονοί» της συγκεκριμένης τεχνολογίας.

Ενόψει του συνεδρίου για την ασφάλεια της ΑΙ που θα πραγματοποιηθεί την επόμενη εβδομάδα στην Αγγλία, 23 ειδικοί προτείνουν ορισμένες πολιτικές ασφαλείας, λέγοντας ότι είναι εντελώς ανεύθυνο να αναπτύσσονται ακόμη ισχυρότερα συστήματα ΑΙ, προτού αντιληφθούμε τους κινδύνους.

«Ήρθε η ώρα να σοβαρευτούμε σε ό,τι αφορά τα ανεπτυγμένα συστήματα ΑΙ. Δεν είναι παιχνίδια», αναφέρει χαρακτηριστικά ο Stuart Russell, καθηγητής πληροφορικής στο Berkeley. Τόνισε μάλιστα ότι «υπάρχουν περισσότεροι κανόνες για μαγαζιά με σάντουιτς παρά για τις εταιρείες ΑΙ».

Μεταξύ των προτάσεων αναφέρονται τα εξής:

  • Οι κυβερνήσεις να δίνουν το ένα τρίτο της χρηματοδότησης για έρευνα και ανάπτυξη ΑΙ και οι εταιρείες το ένα τρίτο των πόρων τους για τον ίδιο σκοπό προς την ασφαλή και ηθική χρήση των συστημάτων.
  • Ανεξάρτητες ελεγκτικές αρχές να έχουν πρόσβαση σε εργαστήρια ΑΙ.
  • Να καθιερωθεί σύστημα αδειοδότησης για τη δημιουργία προηγμένων μοντέλων.
  • Οι εταιρείες ΑΙ πρέπει να υιοθετούν συγκεκριμένα μέτρα ασφαλείας, στην περίπτωση που εντοπιστούν επικίνδυνες λειτουργίες στα μοντέλα τους.
  • Οι τεχνολογικές εταιρείες να αναλαμβάνουν την ευθύνη για ζημίες, που προκύπτουν από τα συστήματα ΑΙ και γίνεται να προβλεφθούν και να αποτραπούν.

Στις εμβληματικές προσωπικότητες της ομάδας ειδικών που συνυπογράφει τις προτάσεις συγκαταλέγονται ο Geoffrey Hinton και ο Yoshua Bengio, δύο εκ των τριών «νονών της ΑΙ», που κέρδισαν το 2018 το βραβείο Turing. Ο Hinton παραιτήθηκε από την Google φέτος, έπειτα από μία δεκαετία στο επίκεντρο της ανάπτυξης της τεχνολογίας, προειδοποιώντας για «υπαρξιακούς κινδύνους» από την τεχνητή νοημοσύνη. Τον Μάρτιο, ο Bengio, συνυπέγραψε ανοιχτή επιστολή με τον Hinton και χιλιάδες άλλους ειδικούς, ζητώντας αναστολή των μεγάλων πειραμάτων στην ΑΙ.

Οι κίνδυνοι

Όπως αναφέρεται στο κείμενο των προτάσεων, όσα αναπτύσσονται συστήματα ΑΙ χωρίς προδιαγραφές ασφαλείας μπορεί να «ενισχύσουν την κοινωνική αδικία, να υποβαθμίσουν τα επαγγέλματά μας, να διαβρώσουν την κοινωνική σταθερότητα, να επιτρέψουν μεγάλης κλίμακας εγκληματικές ή τρομοκρατικές δραστηριότητες και να εξασθενήσουν την κοινή αντίληψη της πραγματικότητας, η οποία είναι θεμελιώδης για την κοινωνία».

Στην επιστολή σημειώνεται ότι τα τρέχοντα συστήματα ΑΙ εμφανίζουν ήδη ανησυχητικές λειτουργίες, που δείχνουν ότι θα αναπτυχθούν αυτόνομα συστήματα, τα οποία θα έχουν τη δυνατότητα να προγραμματίσουν, να κυνηγήσουν στόχους και να «λειτουργήσουν στον κόσμο». «Εάν δημιουργήσουμε υπερβολικά ανεπτυγμένα αυτόνομα ΑΙ, μπορεί να κατασκευάσουμε συστήματα τα οποία κυνηγούν αυτόνομα αθέμιτους στόχους», προειδοποιούν οι επιστήμονες, προσθέτοντας ότι «ίσως να μην μπορούμε να τα ελέγχουμε».

Αξίζει να σημειωθεί ότι άλλοι ειδικοί αντίστοιχου βεληνεκούς εκτιμούν ότι οι προειδοποιήσεις αυτές είναι υπερβολικές. Ενδεικτικά, ο Yann LeCun, επικεφαλής ΑΙ στην Meta και ο τρίτος νικητής του Turing το 2018, δήλωσε στους Financial Times ότι η ιδέα της εξολόθρευσης των ανθρώπων από την τεχνητή νοημοσύνη είναι «παράλογη».

Σε κάθε περίπτωση, η ομάδα των ειδικών υποστηρίζει ότι εάν διοχετευθούν τώρα ανεπτυγμένα συστήματα αυτόνομης ΑΙ στον κόσμο, τότε κανείς δεν θα ξέρει ούτε πώς να προετοιμαστεί για θέματα ασφαλείας ούτε και πώς να κάνει τις σχετικές δοκιμές.

moneyreview.gr με πληροφορίες από Guardian

Διαβάστε επίσης:

Τεχνητή Νοημοσύνη: Τις (θα) πταίει;

Τεχνητή νοημοσύνη ο μεγάλος κίνδυνος για τις εκλογές του 2024 – «Έκρηξη» στις κυβερνοεπιθέσεις

Τεχνητή Νοημοσύνη: Συγκροτείται Συμβουλευτική Επιτροπή με επικεφαλής τον καθηγητή Δασκαλάκη

Ακολουθήστε το Money Review στο Google News