Πράσινο φως για την χρήση αλλά με αυστηρούς κανόνες
Αυστηρούς κανονισμούς, που διέπουν τη χρήση της τεχνητής νοημοσύνης, ανακοίνωσε σήμερα η Ευρωπαϊκή Ένωση, σε μια επίσημη πρώτη πολιτική επί του θέματος.
Σύμφωνα με το πλαίσιο ρύθμισης των κανόνων, οι εταιρείες και οι κυβερνήσεις μπορούν να χρησιμοποιήσουν μια τεχνολογία που θεωρείται ως μια από τις πιο σημαντικές, αλλά και ηθικά επιβαρυμένες, επιστημονικές ανακαλύψεις στην σύγχρονη εποχή.
Η πολιτική παρουσιάστηκε, σύμφωνα με τους New York Times, σε μια ενημέρωση στις Βρυξέλλες. Σύμφωνα με το σχέδιο κανόνων, η πολιτική θα θέτει όρια γύρω από τη χρήση της τεχνητής νοημοσύνης σε μια σειρά δραστηριοτήτων, από αυτοκινούμενα αυτοκίνητα έως αποφάσεις μίσθωσης, επιλογές για την εγγραφή στο σχολείο και τη βαθμολογία των εξετάσεων.
Θα καλύπτει επίσης τη χρήση της τεχνητής νοημοσύνης από τα όργανα επιβολής του νόμου και τα δικαστήρια, τομείς που θεωρούνται «υψηλού κινδύνου» επειδή θα μπορούσαν να απειλήσουν την ασφάλεια των ανθρώπων ή θεμελιώδη ανθρώπινα δικαιώματα.
Ωστόσο, ορισμένες χρήσεις της τεχνητής νοημοσύνης, θα απαγορεύονταν συνολικά. Μεταξύ αυτών η αναγνώρισης προσώπου σε δημόσιους χώρους, αν και θα υπάρξουν ορισμένες εξαιρέσεις για την εθνική ασφάλεια και για άλλους σκοπούς.
Οι κανόνες έχουν εκτεταμένες επιπτώσεις για μεγάλες εταιρείες τεχνολογίας, όπως η Amazon, η Google, το Facebook και η Microsoft, που έχουν διαθέσει πόρους για την ανάπτυξη τεχνητής νοημοσύνης, αλλά και πολλές άλλες εταιρείες που χρησιμοποιούν την τεχνολογία στην υγειονομική περίθαλψη, την ασφάλιση και τη χρηματοδότηση.
Οι κυβερνήσεις έχουν χρησιμοποιήσει διάφορες εκδόσεις της τεχνολογίας της τεχνητής νοημοσύνης στην ποινική δικαιοσύνη και σε δημόσιες υπηρεσίες.
Οι εταιρείες που παραβιάζουν τους νέους κανονισμούς, οι οποίοι ωστόσο, αναμένεται να χρειαστούν αρκετά χρόνια για να συζητηθούν και να εφαρμοστούν, ενδέχεται να αντιμετωπίσουν πρόστιμα έως και 6% των παγκόσμιων πωλήσεών τους.
Η τεχνητή νοημοσύνη, όπου οι μηχανές εκπαιδεύονται ώστε να μάθουν πώς να εκτελούν εργασίες μόνες τους μελετώντας τεράστιους όγκους δεδομένων, θεωρείται από τους τεχνολόγους, τους ηγέτες των επιχειρήσεων και τους κυβερνητικούς αξιωματούχους, ως μία από τις πιο μεταμορφωτικές τεχνολογίες στον κόσμο.
Αλλά καθώς τα συστήματα εξελίσσονται όλο και περισσότερο, μπορεί να καταστεί πιο δύσκολο να προσδιοριστεί γιατί η τεχνολογία λαμβάνει μια απόφαση. Αυτό είναι ένα πρόβλημα που θα μπορούσε να επιδεινωθεί καθώς οι υπολογιστές γίνονται πιο ισχυροί.
Οι ερευνητές έχουν θέσει ηθικά ερωτήματα σχετικά με τη χρήση της τεχνητής νοημοσύνης, υποδηλώνοντας ότι θα μπορούσε να διαιωνίσει τις υπάρχουσες προκαταλήψεις στην κοινωνία, να εισβάλει στην ιδιωτική ζωή ή να οδηγήσει σε αυτοματοποίηση περισσότερων θέσεων εργασίας.
«Όσον αφορά την τεχνητή νοημοσύνη, η εμπιστοσύνη είναι απαραίτητη, όχι επιλογή», ανέφερε σε μια δήλωσή της η Μαργκρέτε Βεστάγκερ, εκτελεστική αντιπρόεδρος της Ευρωπαϊκής Επιτροπής, που επιβλέπει την ψηφιακή πολιτική για το μπλοκ των 27 κρατών- μελών.
«Με αυτούς τους κανόνες- ορόσημο, η ΕΕ καθοδηγεί την ανάπτυξη νέων παγκόσμιων ρυθμίσεων για να διασφαλίσει ότι μπορούμε να εμπιστευτούμε την τεχνητή νοημοσύνη» πρόσθεσε.
Με την εισαγωγή των σχεδίων αυτών για τους κανόνες, που θα διέπουν την τεχνητή νοημοσύνη, η Ευρωπαϊκή Ένωση προσπαθεί να καθιερωθεί περαιτέρω, ως ο πιο δεινός φύλακας της τεχνολογίας στον κόσμο.
Το μπλοκ έχει ήδη θεσπίσει τους πιο εκτεταμένους κανονισμούς απορρήτου δεδομένων στον κόσμο και συζητά επίσης πρόσθετους νόμους περί αντιμονοπωλιακής νομοθεσίας και εποπτείας περιεχομένου.
Και στην Ουάσιγκτον, εξετάζονται οι κίνδυνοι της χρήσης της τεχνητής νοημοσύνης.
Αυτή την εβδομάδα, η Ομοσπονδιακή Επιτροπή Εμπορίου προειδοποίησε για την πώληση συστημάτων τεχνητής νοημοσύνης, που χρησιμοποιούν αλγορίθμους με φυλετικές προκαταλήψεις ή αυτών, που θα μπορούσαν να «αρνηθούν την απασχόληση, τη στέγαση, την πίστωση, την ασφάλιση ή άλλα οφέλη».
Με πληροφορίες των New York Times