Ο Ευρωπαίος Επίτροπος αρμόδιος για την εσωτερική αγορά, Thierry Breton δήλωσε ότι οι νέοι προτεινόμενοι κανόνες για την τεχνητή νοημοσύνη θα στοχεύουν στην αντιμετώπιση των ανησυχιών για τους κινδύνους που εγείρει το ChatGPT.
Ορισμένοι ειδικοί έχουν εκφράσει φόβους ότι τα συστήματα που χρησιμοποιούνται από τέτοιες εφαρμογές θα μπορούσαν να χρησιμοποιηθούν για λογοκλοπή, απάτη και διάδοση παραπληροφόρησης. Ο Breton επισήμανε ότι οι κίνδυνοι που ενέχουν το ChatGPT και τα συστήματα τεχνητής νοημοσύνης υπογραμμίζουν την επείγουσα ανάγκη για θέσπιση κανόνων που πρότεινε πέρυσι σε μια προσπάθεια να διατυπωθεί και να τεθεί το παγκόσμιο πρότυπο για το τεχνολογία. Οι κανόνες συζητούνται επί του παρόντος στις Βρυξέλλες.
«Όπως προκύπτει από το ChatGPT, οι λύσεις τεχνητής νοημοσύνης μπορούν να προσφέρουν μεγάλες ευκαιρίες για τις επιχειρήσεις και τους πολίτες, αλλά μπορούν επίσης να προκαλέσουν και κινδύνους. Γι’ αυτό χρειαζόμαστε ένα σταθερό ρυθμιστικό πλαίσιο για να διασφαλίσουμε αξιόπιστη τεχνητή νοημοσύνη βασισμένη σε δεδομένα υψηλής ποιότητας», δήλωσε.
Σύμφωνα με το προσχέδιο κανόνων της ΕΕ, το ChatGPT θεωρείται ένα σύστημα τεχνητής νοημοσύνης γενικού σκοπού που μπορεί να χρησιμοποιηθεί για πολλαπλούς σκοπούς, συμπεριλαμβανομένων εκείνων υψηλού κινδύνου, όπως η επιλογή υποψηφίων για θέσεις εργασίας και η βαθμολογία πιστώσεων.
Ο Breton θέλει το OpenAI να συνεργάζεται στενά με μεταγενέστερους προγραμματιστές συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου για να επιτρέψει τη συμμόρφωσή τους με τον προτεινόμενο νόμο περί τεχνητής νοημοσύνης (AI Act).