Η Αυστραλιανή Δημόσια Υπηρεσία θα γίνει μία από τις πρώτες στον κόσμο που θα χρησιμοποιήσει AI όταν δοκιμάσει το λογισμικό 365 Copilot της Microsoft το επόμενο έτος.
Όταν ο πρωθυπουργός Anthony Albanese ανακοίνωσε την εξάμηνη δίκη τον Νοέμβριο, είπε ότι η κίνηση θα «ενίσχυε» το έργο των δημοσίων υπαλλήλων της χωρίς συμβιβασμούς στην ασφάλεια.
Καθώς η δημόσια υπηρεσία πρόκειται να επανεξοπλιστεί με προηγμένη τεχνητή νοημοσύνη, η διαβεβαίωση των Αυστραλών ότι η «βελτίωση» αξίζει τον κόπο θα απαιτήσει τον εντοπισμό και τη διαχείριση των κινδύνων για την ασφάλεια.
Η Αυστραλία μπορεί να ισχυρίζεται ότι βρίσκεται στην πρώτη γραμμή της ενσωμάτωσης εργαλείων τεχνητής νοημοσύνης στον δημόσιο τομέα, αλλά δεν έχει δεσμευτικό νομικό ή πολιτικό πλαίσιο γύρω από τη χρήση τους. Άλλες κυβερνήσεις το κάνουν, κάτι που θα μπορούσε να βοηθήσει τους πολιτικούς της Αυστραλίας να πλοηγηθούν σε αυτή τη νέα περιοχή.
Η κυκλοφορία του ChatGPT του OpenAI πριν από λίγο περισσότερο από ένα χρόνο – το πρώτο τέτοιο εργαλείο που κυκλοφόρησε δωρεάν στο κοινό – προκάλεσε ανησυχία σε πολλούς κύκλους. Το ChatGPT χρησιμοποιεί έναν τύπο μηχανικής εκμάθησης γνωστό ως μοντέλο μεγάλου γλωσσικού μοντέλου (LLM). Τα μεγάλα γλωσσικά μοντέλα «εκπαιδεύονται» με τεράστιες εισαγωγές δεδομένων, συμπεριλαμβανομένων βιβλίων, άρθρων και ιστοτόπων, για να απαντούν σε ερωτήματα φυσικής γλώσσας. Αυτό που εισέρχεται για την εκπαίδευση του μηχανήματος καθορίζει τι θα βγει ως απάντηση σε αυτά τα ερωτήματα.
Ένας λόγος για τον συναγερμό σχετικά με το ChatGPT είναι ότι οι προτροπές χρήστη χρησιμοποιούνται επίσης για την περαιτέρω εκπαίδευση του μοντέλου μεγάλης γλώσσας. Αυτές οι πληροφορίες βρίσκονται στους διακομιστές του OpenAI, όπου άλλοι – συμπεριλαμβανομένων των κακόβουλων παραγόντων – θα μπορούσαν ενδεχομένως να ανακτήσουν τα δεδομένα.
Αυτό το πρόβλημα σχεδιασμού έχει κάνει τις επιχειρήσεις να ανησυχούν ότι οι εργαζόμενοι ενδέχεται να διαρρεύσουν αθέλητα ευαίσθητα εταιρικά δεδομένα ή εμπιστευτικές πληροφορίες αλληλεπιδρώντας με το ChatGPT. Μια τέτοια διαρροή έχει ήδη συμβεί στη Samsung.
Το λογισμικό 365 Copilot βασίζεται σε αρχιτεκτονική μηχανικής μάθησης παρόμοια με το ChatGPT. Παρόλο που η Microsoft υπόσχεται ότι το λογισμικό "δεν έχει εκπαιδευτεί στα δεδομένα του οργανισμού σας" – που σημαίνει ότι δεν θα καταβροχθίσει και δεν θα καταστρέψει τα ερωτήματα αναζήτησης των χρηστών – άλλες ανησυχίες για την ασφάλεια της τεχνητής νοημοσύνης παραμένουν.
Ίσως το πιο σημαντικό, η τεχνητή νοημοσύνη που βασίζεται σε μεγάλα γλωσσικά μοντέλα έχει ένα « πρόβλημα ψευδαισθήσεων » – την ικανότητα να παρουσιάζει πλασματικές δηλώσεις με σιγουριά ως γεγονός. Σημαίνει ότι το εργαλείο AI μπορεί να εισάγει ανακρίβειες ή παραπληροφόρηση όταν χρησιμοποιείται για έρευνα. Ορισμένοι επιστήμονες της τεχνητής νοημοσύνης λένε ότι αυτό δεν είναι σφάλμα, αλλά το κεντρικό χαρακτηριστικό αυτού του τύπου τεχνητής νοημοσύνης.
Οι παρατηρητές υποστήριξαν επίσης ότι η ευρεία εξάρτηση από τη γενετική τεχνητή νοημοσύνη, συμπεριλαμβανομένων των μεγάλων γλωσσικών μοντέλων, μπορεί να οδηγήσει σε περαιτέρω διάβρωση της εμπιστοσύνης του κοινού σε επίσημες ή επιστημονικές πληροφορίες. Υπάρχει επίσης ανησυχία για την πιθανή απώλεια της κριτικής σκέψης , όπου οι λανθασμένες πληροφορίες γίνονται αποδεκτές ως «αρκετά καλές» ή ευαγγέλιο.
Οι ανησυχίες σχετικά με τις επιπτώσεις στην ακαδημαϊκή ακεραιότητα έχουν ήδη οδηγήσει τα περισσότερα δημόσια σχολεία της Αυστραλίας να απαγορεύσουν το ChatGPT στα σχολεία. Οι δάσκαλοι ανησυχούν ότι οι μαθητές μπορεί να βασίζονται στην τεχνητή νοημοσύνη για να ολοκληρώσουν τις κατ' οίκον εξετάσεις παρά την απαγόρευση – αλλά είναι πολύ δύσκολο να διακρίνει κανείς τη διαφορά.
Η αντιμετώπιση αυτών των ζητημάτων σε επίπεδο πολιτικής – η επιβολή της υπεύθυνης τεχνητής νοημοσύνης – εξαρτάται εν μέρει από την ύπαρξη επαρκών και αποτελεσματικών κανόνων που διέπουν τους σχετικούς παράγοντες όπως οι εταιρείες.
Στην Αυστραλία, αυτό σημαίνει ότι η ηθική της τεχνητής νοημοσύνης και – όλο και περισσότερο – η ήπια και σκληρή νομοθεσία θεωρούνται απαραίτητα για την αντιμετώπιση των κινδύνων που μπορεί να θέσει η τεχνητή νοημοσύνη. Πολλοί οργανισμοί έχουν επινοήσει αρχές ηθικής τεχνητής νοημοσύνης για να καθοδηγήσουν μηχανικούς και επιστήμονες που αναπτύσσουν εργαλεία και συστήματα τεχνητής νοημοσύνης, καθώς και τις εταιρείες και τους οργανισμούς που τα αναπτύσσουν.
Πριν από την άφιξη του ChatGPT, η αυστραλιανή κυβέρνηση καθιέρωσε ένα σύνολο εθελοντικών αρχών ηθικής τεχνητής νοημοσύνης με στόχο να διασφαλίσει ότι το AI είναι ασφαλές, ασφαλές και αξιόπιστο. Δεν είναι γνωστό πόσο ευρέως έχουν εφαρμοστεί αυτές οι αρχές ή πόσο αποτελεσματικές ήταν.
Μόνο η Νέα Νότια Ουαλία διαθέτει μια κυβερνητική επιτροπή αναθεώρησης, η οποία έχει συσταθεί βάσει του πλαισίου διασφάλισης τεχνητής νοημοσύνης , με την εξουσία να απαιτεί τη συμμόρφωση από εταιρείες που πωλούν προϊόντα τεχνητής νοημοσύνης σε κυβερνήσεις ή εργολάβους που χρησιμοποιούν εφαρμογές τεχνητής νοημοσύνης.
Ωστόσο, πέρα από τις αρχές δεοντολογίας, η Αυστραλία δεν έχει ειδική νομοθεσία για την τεχνητή νοημοσύνη παρόμοια με τον νόμο της ΕΕ για την τεχνητή νοημοσύνη ή τον λεπτομερή κανονισμό της Κίνας . Αντίθετα, οι ρυθμιστικές αρχές βασίζονται σε νόμους που ισχύουν για όλες τις υπάρχουσες τεχνολογίες, όπως ο νόμος περί ιδιωτικότητας του 1988 , για να διέπουν την τεχνητή νοημοσύνη, εφαρμόζοντάς τους κατά περίπτωση.
Η εμφάνιση υψηλής ικανότητας και πολλαπλών χρήσεων γενετικής τεχνητής νοημοσύνης οδήγησε σε μια κυβερνητική αναθεώρηση νωρίτερα αυτό το έτος για να διαπιστωθεί εάν τα υπάρχοντα μέτρα, βασισμένα σε μεγάλο βαθμό στην αυτορρύθμιση από προγραμματιστές και προγραμματιστές τεχνητής νοημοσύνης, έπρεπε να ενισχυθούν.
Τον Ιούνιο του 2023, η αλβανική κυβέρνηση δήλωσε ότι εξέταζε την απαγόρευση της τεχνητής νοημοσύνης «υψηλού κινδύνου» και της αυτοματοποιημένης λήψης αποφάσεων στη εργαλειοθήκη διακυβέρνησης της τεχνητής νοημοσύνης. Ο ευρωπαϊκός νόμος για την τεχνητή νοημοσύνη, για παράδειγμα, προβλέπει την απαγόρευση σε περίπτωση ορισμένων «μη αποδεκτών» χρήσεων της τεχνητής νοημοσύνης.
Όπως επιβεβαίωσε η κυκλοφορία του Microsoft 365 Copilot, δεν υπάρχει απαγόρευση στην Αυστραλία για τη χρήση τεχνητής νοημοσύνης για την υποστήριξη κυβερνητικών λειτουργιών. Αντίθετα, μέσω των ενδιάμεσων κατευθυντήριων γραμμών της , η ομοσπονδιακή κυβέρνηση έχει ενθαρρύνει τους κυβερνητικούς υπαλλήλους να είναι προσεκτικοί χρησιμοποιώντας τη γενετική τεχνητή νοημοσύνη.
Αυτές οι κατευθυντήριες γραμμές δεν είναι υποχρεωτικές και μόνο συμπληρωματικές σε οποιαδήποτε καθοδήγηση που αναπτύχθηκε από φορείς, οι οποίοι εξακολουθούν να είναι ελεύθεροι να υιοθετήσουν τις δικές τους. Εξετάζονται από μια ομάδα εργασίας που έχει ανατεθεί να αναπτύξει μια συνολική κυβερνητική προσέγγιση για την τεχνητή νοημοσύνη έως τον Μάρτιο του 2024.
Οι πρόσφατες διεθνείς εξελίξεις μπορεί να βοηθήσουν στην καθοδήγηση της προσέγγισης της Αυστραλίας στην ενσωμάτωση της τεχνητής νοημοσύνης. Μεταξύ αυτών είναι το Εκτελεστικό Διάταγμα του Προέδρου των ΗΠΑ για την τεχνητή νοημοσύνη και η Σύνοδος Κορυφής για την Ασφάλεια της ΤΝ που πραγματοποιήθηκε τον Νοέμβριο στο Ηνωμένο Βασίλειο, στην οποία συμμετείχαν όλες οι Ηνωμένες Πολιτείες, η Ευρωπαϊκή Ένωση, η Κίνα και η Αυστραλία.
Ενώ το εκτελεστικό διάταγμα του προέδρου των ΗΠΑ Τζο Μπάιντεν απευθύνεται κυρίως σε κυβερνητικές υπηρεσίες των ΗΠΑ, δημιουργεί ουσιαστικά νέα καθήκοντα αναφοράς για εταιρείες που αναπτύσσουν προηγμένα συστήματα τεχνητής νοημοσύνης. Αυτό θα πρέπει να περιλαμβάνει μεγάλα γλωσσικά μοντέλα και γενετικά AI που υπερβαίνουν τις δυνατότητες του GPT-4, του μοντέλου που τροφοδοτεί το Bing. Δημιουργεί επίσης αυτά τα πρόσθετα καθήκοντα αναφοράς για εταιρείες ή ιδιώτες που αποκτούν υπολογιστική ισχύ πέρα από ένα συγκεκριμένο όριο.
Μια τέτοια πολιτική είναι ένα παράδειγμα μιας κυβέρνησης που χρησιμοποιεί την ισχύ της στην αγορά ως αγοραστής και χρήστη προϊόντων τεχνητής νοημοσύνης, καθώς και τη διοικητική της εξουσία ως ρυθμιστή της υποδομής για να καθορίσει κανόνες και απαιτήσεις για τις εταιρείες.
Η αναγνώριση μιας ποικιλίας κινδύνων – συμπεριλαμβανομένων των κινδύνων των οποίων οι τροχιές είναι άγνωστες, όπως η εκτόπιση εργαζομένων, και των κινδύνων που είναι δυνητικά καταστροφικοί – είναι μια αξιοσημείωτη πτυχή των εξελίξεων της διεθνούς πολιτικής γύρω από την τεχνητή νοημοσύνη. Η προσέγγιση για την ανάπτυξη συστημάτων τεχνητής νοημοσύνης έχει γίνει αναγκαστικά πιο προσεκτική.
Το εκτελεστικό διάταγμα του Μπάιντεν αναγνωρίζει τον γνωστό κίνδυνο διάκρισης στην αυτοματοποιημένη λήψη αποφάσεων που προκαλείται από την ενσωματωμένη μεροληψία στα ιστορικά δεδομένα που χρησιμοποιούνται για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης. Έχουν επινοηθεί διορθωτικά μέτρα για την προώθηση της δικαιοσύνης στα μοντέλα τεχνητής νοημοσύνης.
Αναγνωρίζει επίσης τους κινδύνους απάτης, παραπληροφόρησης και εκτόπισης εργαζομένων.
Και ίσως το πιο κρίσιμο, αναγνωρίζει πιθανές απειλές για την εθνική ασφάλεια – όπως η πιθανότητα τα προηγμένα συστήματα τεχνητής νοημοσύνης να βοηθήσουν στην παραγωγή ή πρόσβαση σε βιολογικά ή χημικά όπλα.
Όπως και το εκτελεστικό διάταγμα του Μπάιντεν, η Σύνοδος Κορυφής για την Ασφάλεια AI αναγνώρισε τον κίνδυνο καταστροφικής βλάβης από την προηγμένη τεχνητή νοημοσύνη και τόνισε την ανάγκη για την κυβέρνηση να αναπτύξει ικανότητα για δοκιμές ασφάλειας για αυτούς τους κινδύνους.
Δημοσιεύτηκε αρχικά στο Creative Commons από το 360info ™.