Η γρήγορη ανάβαση του DeepSeek απέδειξε ξανά ότι η μόνη αξιόπιστη σταθερά στον κόσμο της ανάπτυξης της τεχνητής νοημοσύνης είναι ότι είναι γρήγορη και απρόβλεπτη. Όταν έγινε σαφές ότι οι ισχυρισμοί απόδοσης του χαμηλού κόστους συλλογιστικού μοντέλου DeepSeek-R1 της Κίνας ήταν πραγματικά σε θέση να ανταγωνιστούν τουλάχιστον σε ορισμένα σημεία αναφοράς με το μοντέλο o1 του OpenAI, η Wall Street κατέρρευσε . Μπορεί να χρειαστεί λίγος χρόνος και ίσως ακόμη περισσότερες νομικές χρεώσεις από το κόστος ανάπτυξης του DeepSeek για να καθοριστεί εάν οι Κινέζοι είχαν κάνει κατάχρηση του αποκλειστικού μοντέλου του OpenAI για να εκπαιδεύσουν το δικό τους προϊόν, αλλά ο αντίκτυπος του DeepSeek στη γενική άποψη της κινεζικής βιομηχανίας AI και μια νέα εκτίμηση για τις δημιουργικές προσεγγίσεις του είναι αναμφισβήτητη.
Μόλις το DeepSeek ανακοινώθηκε ως το νέο wunderkind της αγοράς chatbot, οι περίεργοι χρήστες άρχισαν να παρατηρούν τα «κινεζικά χαρακτηριστικά» της εφαρμογής: μια εκκωφαντική σιωπή σε θέματα όπως η Τιενανμέν ή η Ταϊβάν. Αυτό σε καμία περίπτωση δεν προκαλεί έκπληξη και είναι πλήρως σύμφωνο με τους κανόνες και τους κανονισμούς της Κίνας για τη γενετική τεχνητή νοημοσύνη.
Αφού η Κίνα βίωσε τη δική της στιγμή AI Sputnik τον Μάιο του 2017, όταν το Go-θαύμα της Ke Jie έχασε έναντι του λογισμικού AlphaGo που υποστηρίζεται από AI και χρηματοδοτείται από την Google, το Κινεζικό Κρατικό Συμβούλιο ανταποκρίθηκε αμέσως, δημοσιεύοντας ένα « Αναπτυξιακό Σχέδιο για μια Νέα Γενιά ΤΝ » τον Ιούλιο του 2017. Αυτό το γενικό σχέδιο σκιαγράφησε ξεκάθαρα ορόσημα στην τεχνολογία 203 στην Κίνα. Εφαρμογή τεχνητής νοημοσύνης, αλλά αναγνώρισε επίσης ρητά ότι ο μετασχηματισμός της τεχνητής νοημοσύνης απαιτεί ένα κανονιστικό πλαίσιο που να αποτελείται από κατευθυντήριες γραμμές δεοντολογίας και νομικούς κανόνες.
Η Κίνα αρχικά ακολούθησε μια πορεία παρόμοια με άλλες δικαιοδοσίες που εστιάζουν σε ηθικά ζητήματα κατά την ανάπτυξη και χρήση της τεχνητής νοημοσύνης, όπως τα «Ηθικά πρότυπα για μια νέα γενιά τεχνητής νοημοσύνης» του Υπουργείου Επιστήμης και Τεχνολογίας, τα οποία περιλάμβαναν πτυχές όπως η δικαιοσύνη, το απόρρητο, η δυνατότητα ελέγχου, η αξιοπιστία ή η λογοδοσία. Σε αντίθεση με την προσέγγιση της Ευρωπαϊκής Ένωσης για έναν πιο ολοκληρωμένο νόμο για την τεχνητή νοημοσύνη , η Κίνα έχει θεσπίσει μόνο ένα σύνολο πολύ ειδικών νομικών κανονισμών, οι οποίοι στοχεύουν τους τομείς εφαρμογής της τεχνητής νοημοσύνης που θεωρούνται ευαίσθητοι στο καθεστώς. Με αυτόν τον τρόπο, η κινεζική κυβέρνηση ανταποκρίθηκε στις αυξανόμενες δυνατότητες της τεχνολογίας AI και εξίσου έδειξε τις δικές της αυξανόμενες ανησυχίες σχετικά με τον αντίκτυπο της τεχνητής νοημοσύνης στην κοινωνία. Το 2023, εκδόθηκαν τόσο οι Διατάξεις Βαθιάς Σύνθεσης όσο και τα Ενδιάμεσα Μέτρα για τη Γενετική ΤΝ , καθιερώνοντας ορισμένες γενικές έννοιες για την ευθυγράμμιση της τεχνητής νοημοσύνης με την άποψη του καθεστώτος για το πώς πρέπει να είναι τα πράγματα.
Οι διατάξεις Deep Synthesis – οι οποίες διέπουν τεχνολογίες που χρησιμοποιούν βαθιά μάθηση, εικονική πραγματικότητα και άλλους συνθετικούς αλγόριθμους για τη δημιουργία πληροφοριών δικτύου όπως κείμενο, εικόνες, ήχο, βίντεο και εικονικά περιβάλλοντα – ορίζουν, μεταξύ άλλων, ότι οι υπηρεσίες αυτές πρέπει να τηρούν τη σωστή πολιτική κατεύθυνση, τον προσανατολισμό της κοινής γνώμης και τον προσανατολισμό αξίας. Ομοίως, τα Προσωρινά Μέτρα για την Παραγωγική τεχνητή νοημοσύνη ορίζουν ότι το παραγόμενο περιεχόμενο πρέπει να υποστηρίζει τις «σοσιαλιστικές βασικές αξίες» και δεν πρέπει να υποκινεί την υπονόμευση της εθνικής κυριαρχίας ή την ανατροπή του σοσιαλιστικού συστήματος. θέτουν σε κίνδυνο την εθνική ασφάλεια και συμφέροντα ή βλάπτουν την εικόνα του έθνους· υποκινούν τον αυτονομισμό ή υπονομεύουν την εθνική ενότητα και την κοινωνική σταθερότητα· υποστηρίζει την τρομοκρατία ή τον εξτρεμισμό· ή να προωθήσουν το εθνοτικό μίσος και τις εθνοτικές διακρίσεις, τη βία και την αισχρότητα και τις ψευδείς και επιβλαβείς πληροφορίες.
Ωστόσο, αυτό το πλήθος των πρέπει και που δεν πρέπει να παρέχει δύσκολα ένα σαφές σύνολο κατευθυντήριων αρχών που θα μπορούσαν να εφαρμοστούν από Κινέζους προγραμματιστές τεχνητής νοημοσύνης. Η υποστήριξη μιας τόσο υψηλής και ανοιχτής ιδέας όπως οι σοσιαλιστικές βασικές αξίες , ένα σύνολο 12 αξιών που καθιερώθηκαν από το ΚΚΚ το 2012, σίγουρα δημιουργεί ένα δύσκολο πρόβλημα για την εκπαίδευση της κινεζικής γενετικής τεχνητής νοημοσύνης.
Η ευθυγράμμιση της τεχνητής νοημοσύνης με ένα τέτοιο πολιτικά καθοδηγούμενο σύστημα αξιών από πάνω προς τα κάτω δικαιολογούσε περαιτέρω καθοδήγηση, την οποία έχουν παράσχει οι κινεζικές ρυθμιστικές αρχές θέτοντας πρότυπα που υπερβαίνουν κατά πολύ απλούς κανόνες ή απαιτήσεις που περιορίζονται στον τεχνολογικό τομέα. Τα πρότυπα διαδραματίζουν σημαντικό ρόλο στο ρυθμιστικό πλαίσιο της Κίνας για την τεχνητή νοημοσύνη, καθώς η Κίνα ακολουθεί μια συστηματική προσέγγιση για την τυποποίηση σε όλους τους τομείς που σχετίζονται με την τεχνητή νοημοσύνη. Το Υπουργείο Βιομηχανίας και Τεχνολογίας Πληροφορικής εξέδωσε μια Εθνική Κατευθυντήρια Γραμμή για την Καθιέρωση Προτύπων για ΤΝ Νέας Γενιάς ήδη από το 2020, η οποία ενημερώθηκε το 2024 και καλύπτει τεχνικές πτυχές, πρότυπα ειδικά για τον κλάδο, καθώς και κανονιστικά πρότυπα και πρότυπα ασφαλείας.
Το πιο σημαντικό πρότυπο ασφαλείας μέχρι σήμερα δημοσιεύτηκε στις αρχές του 2024 από την Τεχνική Επιτροπή (TC) 260 , η οποία εξέδωσε ένα πρότυπο για τις Βασικές Απαιτήσεις Ασφάλειας για τις Υπηρεσίες Γενετικής Τεχνητής Νοημοσύνης. Αυτή η πανίσχυρη Τεχνική Επιτροπή Τυποποίησης Εθνικής Ασφάλειας Πληροφοριών υπό την αιγίδα της Διοίκησης Κυβερνοχώρου της Κίνας είναι επιφορτισμένη με τον καθορισμό προτύπων για σχεδόν οτιδήποτε σχετίζεται με την ασφάλεια στον κυβερνοχώρο και τα δεδομένα, καθώς και την περαιτέρω ανάπτυξη της τεχνητής νοημοσύνης.
Το προαναφερθέν πρότυπο σχετικά με τις απαιτήσεις ασφαλείας για την γενετική τεχνητή νοημοσύνη θεσπίζει κανόνες για την αξιολόγηση ασφάλειας των γενετικών εφαρμογών τεχνητής νοημοσύνης στην Κίνα, η οποία μπορεί να πραγματοποιηθεί είτε από τους ίδιους τους παρόχους υπηρεσιών είτε από τρίτο φορέα αξιολόγησης ασφάλειας. Και πάλι, η ευθυγράμμιση με τις σοσιαλιστικές βασικές αξίες είναι ένα κρίσιμο σημείο αναφοράς για τον προσδιορισμό της ασφάλειας των κινεζικών εφαρμογών τεχνητής νοημοσύνης. Αν και αυτό το πρότυπο απηχεί τις προαναφερθείσες ευρείες κατηγορίες απαγορευμένου περιεχομένου, διευκρινίζει ωστόσο ότι η κινεζική τεχνητή νοημοσύνη μπορεί να βασίζεται σε έως και 5 τοις εκατό των παράνομων ή επιβλαβών δεδομένων εκπαίδευσης και να δημιουργεί όχι περισσότερο από το 10 τοις εκατό μη ασφαλούς περιεχομένου. Λίγα είναι γνωστά για το πώς λειτουργεί στην πραγματικότητα αυτή η αξιολόγηση ασφάλειας, αλλά ορισμένοι τρίτοι πάροχοι σε αυτόν τον τομέα έχουν δημοσιεύσει τουλάχιστον ορισμένες συνοπτικές πληροφορίες σχετικά με τη συγκριτική αξιολόγηση τους.
Η κινεζική εταιρεία τεχνολογίας Equal Ocean δημοσίευσε μια επισκόπηση της συγκριτικής αξιολόγησης ποιότητας , η οποία δοκίμασε το GPT 3.5 του Open AI έναντι κινεζικών LLM όπως το Ernie Bot της Baidu ή το Tongyi Qianwen της Alibaba. Το ChatGPT σημείωσε εξαιρετικά χαμηλή βαθμολογία στις δοκιμές ασφάλειας, καθώς προφανώς δεν ήταν σε θέση να «παρέχει σωστή καθοδήγηση με βάση τις σοσιαλιστικές βασικές αξίες» και ήταν ιδιαίτερα αδύναμη στην παροχή ασφαλών αποτελεσμάτων στην απροσδιόριστη κατηγορία «κοινής γνώμης και καυτών θεμάτων». Αν και δεν παρείχε συγκεκριμένα αποτελέσματα, η China Academy of Information and Communications Technology δημοσίευσε μια έκθεση αξιολόγησης ασφάλειας στην οποία δοκίμασε για «πολιτικά ευαίσθητα» θέματα, τα οποία κατηγοριοποιήθηκαν ως «πολιτική κατεύθυνση της χώρας, προσέγγιση βασικών αξιών, ζητήματα εδαφικής κυριαρχίας, σημαντικά ιστορικά ζητήματα και θρησκευτικά ζητήματα».
Η συζήτηση για το Κινεζικό Κομμουνιστικό Κόμμα, τον πατριωτισμό, την Ταϊβάν, τον Μάο Τσε Τουνγκ ή το Ισλάμ στη Σιντζιάνγκ δύσκολα θα είναι δυνατή με μια κινεζική τεχνητή νοημοσύνη – εκτός αν, φυσικά, ο χρήστης έχει την υπομονή να περιμένει το 10 τοις εκατό των μη ασφαλών απαντήσεων που προφανώς επιτρέπονται.
Δεν προκαλεί έκπληξη το γεγονός ότι η Κίνα διασφαλίζει ότι η γενετική τεχνητή νοημοσύνη της λογοκρίνεται σε μεγάλο βαθμό. Ωστόσο, το DeepSeek έχει παράσχει ένα πολύ καλό παράδειγμα ότι το σύστημα λογοκρισίας AI της Κίνας που συνδυάζει νομικούς κανόνες, τυποποίηση και αξιολογήσεις ασφάλειας που ανατίθενται σε εξωτερικούς συνεργάτες είναι λειτουργικό και αποτελεσματικό. Η Κίνα μπορεί να μην έχει μείνει δύο χρόνια πίσω στην ανάπτυξη της τεχνητής νοημοσύνης και η αυταρχική της ευθυγράμμιση αξίας για τη γενετική τεχνητή νοημοσύνη αποδεικνύει, τουλάχιστον μέχρι στιγμής, την ικανότητά της να κρατά την τεχνητή νοημοσύνη σε ένα ανελεύθερο κλουβί. Αυτά τα μοντέλα δύσκολα μπορούν να δώσουν χρήσιμες λύσεις για ανοιχτές κοινωνίες, αλλά μπορεί να είναι πολύ δελεαστικά για χρήση σε άλλες ανελεύθερες δικαιοδοσίες.