Στο στόχαστρο των ρυθμιστικών αρχών έχει μπει το ChatGPT, από όταν η Ιταλία έγινε η πρώτη δυτική χώρα που μπλόκαρε το δημοφιλές chatbot της OpenAI.
Για την ακρίβεια, εξετάζουν εάν ο αλγόριθμος συμμορφώνεται με τους κανονισμούς απορρήτου.
Ο επόπτης προστασίας δεδομένων της Ιταλίας δήλωσε την περασμένη εβδομάδα ότι ξεκινά έρευνα κατά της OpenAI, επικαλούμενος ανησυχίες για το απόρρητο μετά την παραβίαση δεδομένων που αφορούσε συνομιλίες χρηστών και πληροφορίες πληρωμής στο ChatGPT.
Το εργαλείο τεχνητής νοημοσύνης μπορεί να απαντήσει σε οποιεσδήποτε ερωτήσεις, να περάσει εξετάσεις, ακόμη και να κωδικοποιήσει έναν ολόκληρο ιστότοπο.
Εκατοντάδες εκατομμύρια άνθρωποι έχουν χρησιμοποιήσει το ChatGPT από την κυκλοφορία του τον Νοέμβριο του 2022, καθιστώντας το την ταχύτερα αναπτυσσόμενη εφαρμογή καταναλωτών στην ιστορία, σύμφωνα με μελέτη της UBS.
Ωστόσο, υπάρχουν αυξανόμενες ανησυχίες σχετικά με τους πιθανούς κινδύνους του, συμπεριλαμβανομένης της απειλής να εξαλείψει πολλές θέσεις εργασίας, καθώς επίσης και να διαδώσει παραπληροφόρηση.
Θα ακολουθήσουν σύντομα και άλλες χώρες και θα απαγορεύσουν το ChatGPT;
Μετά την απόφαση της Ιταλίας να περιορίσει την πρόσβαση στο chatbot, η Ευρωπαϊκή Οργάνωση Καταναλωτών (BEUC) κάλεσε όλες τις αρχές να διερευνήσουν όλα τα μεγάλα chatbot τεχνητής νοημοσύνης.
Σημειώνεται, ότι η πρόσβαση στο ChatGPT έχει ήδη απαγορευτεί σε πολλές χώρες, όπως η Κίνα, το Ιράν, η Βόρεια Κορέα και η Ρωσία.
«Οι καταναλωτές δεν είναι έτοιμοι για αυτήν την τεχνολογία. Δεν συνειδητοποιούν πόσο χειριστική, πόσο παραπλανητική μπορεί να είναι. Δεν συνειδητοποιούν ότι οι πληροφορίες που λαμβάνουν είναι ίσως λάθος», δήλωσε η αναπληρώτρια διευθύντρια του BEUC Ursula Pachl.
«Πιστεύω ότι αυτό το περιστατικό με το ChatGPT είναι πολύ σημαντικό. Είναι ένα είδος αφύπνισης για την Ευρωπαϊκή Ένωση. Έχουμε δει πόσο γρήγορα αναπτύσσονται αυτού του είδους τα συστήματα», είπε στο Euronews.
Άλλες ρυθμιστικές αρχές στην Ευρώπη έχουν τώρα αρχίσει να δίνουν μεγαλύτερη προσοχή στο ChatGPT.
Η Επιτροπή Προστασίας Δεδομένων της Ιρλανδίας δήλωσε ότι «θα συντονιστεί με όλες τις Αρχές Προστασίας Δεδομένων της ΕΕ σε σχέση με αυτό το θέμα».
Η ρυθμιστική αρχή απορρήτου δεδομένων της Γαλλίας, CNIL, ανέφερε ότι διεξάγει έρευνα μετά από δύο καταγγελίες σχετικά με το ChatGPT.
Οι ρυθμιστικές αρχές έχουν επίσης επικοινωνήσει με τους Ιταλούς ομολόγους τους, ώστε να μάθουν περισσότερα σχετικά με τη βάση της απαγόρευσης.
Σε μια ανάρτηση ιστολογίου αυτή την εβδομάδα, το Γραφείο του Επιτρόπου Πληροφοριών του Ηνωμένου Βασιλείου προειδοποίησε ότι οι προγραμματιστές τεχνητής νοημοσύνης δεν έχουν «καμία δικαιολογία» να κάνουν λάθος το απόρρητο των δεδομένων – και ότι όσοι δεν ακολουθούν τη νομοθεσία για την προστασία δεδομένων θα αντιμετωπίσουν συνέπειες.
Απαντώντας στις ανησυχίες, η OpenAI δημοσίευσε προχώρησε σε μία ανάρτηση όπου περιγράφει την προσέγγισή της στην ασφάλεια της τεχνητής νοημοσύνης.
Η εταιρεία είπε ότι εργάζεται για την αφαίρεση προσωπικών πληροφοριών από τα δεδομένα εκπαίδευσης όπου είναι εφικτό, προσαρμόζει τα μοντέλα της ώστε να απορρίπτει αιτήματα για προσωπικά στοιχεία ιδιωτών και ενεργεί σε αιτήματα για διαγραφή προσωπικών πληροφοριών από τα συστήματά της.
{https://twitter.com/vestager/status/1641751672148959234}