Των Emily Baker-White και Rashi Shrivastava
Πριν επιτρέψει στους περισσότερους από 13.000 υπαλλήλους του στο Πεντάγωνο να αναζητήσουν μια πληροφορία για έναν Αμερικανό πολίτη, ο διευθυντής της Υπηρεσίας Αμυντικής Αντικατασκοπείας και Ασφάλειας (DCSA) David Cattler, τους βάζει να κάνουν μια ερώτηση στον εαυτό τους: ξέρει η μαμά μου ότι η κυβέρνηση μπορεί να κάνει κάτι τέτοιο;
"Το τεστ της μαμάς", όπως το αποκαλεί ο Cattler, είναι ένας έλεγχος κοινής λογικής για το πώς η DCSA - μια εκτεταμένη υπηρεσία που χορηγεί και αρνείται τις άδειες ασφαλείας των ΗΠΑ για εκατομμύρια εργαζομένους - κάνει τη δουλειά της. Και είναι επίσης ο τρόπος που σκέφτεται ο Cattler για τη χρήση της τεχνητής νοημοσύνης από την υπηρεσία του.
Η DCSA είναι η υπηρεσία η οποία είναι επιφορτισμένη με τη διερεύνηση και την έγκριση του 95% των πιστοποιητικών ασφαλείας των υπαλλήλων της ομοσπονδιακής κυβέρνησης των ΗΠΑ, κάτι που της απαιτεί να ολοκληρώνει εκατομμύρια έρευνες κάθε χρόνο. Αυτό δίνει στον οργανισμό πρόσβαση σε ένα τεράστιο θησαυροφυλάκιο προσωπικών πληροφοριών και το 2024, η DCSA στράφηκε σε εργαλεία τεχνητής νοημοσύνης για να οργανώσει και να ερμηνεύσει αυτά τα δεδομένα.
Αυτά δεν περιλαμβάνουν ChatGPT, Bard, Claude ή άλλα εντυπωσιακά μοντέλα τεχνητής νοημοσύνης. Αντίθετα, εξορύσσει και οργανώνει δεδομένα με τρόπους που το έπρατταν οι εταιρείες τεχνολογίας της Silicon Valley εδώ και χρόνια, χρησιμοποιώντας συστήματα που δείχνουν τη δουλειά τους πιο ξεκάθαρα απ’ ό,τι κάνουν τα περισσότερα μοντέλα μεγάλων γλωσσών. Για παράδειγμα, ο Cattler ανέφερε ότι η πιο πολλά υποσχόμενη περίπτωση χρήσης αυτών των εργαλείων της υπηρεσίας είναι να δίνει προτεραιότητα στις υπάρχουσες απειλές.
Εάν δεν χρησιμοποιηθούν προσεκτικά, αυτά τα εργαλεία θα μπορούσαν να θέσουν σε κίνδυνο την ασφάλεια των δεδομένων και να εισαγάγουν μεροληψία στα κυβερνητικά συστήματα. Ωστόσο, ο Cattler ήταν αισιόδοξος ότι ορισμένες από τις λιγότερο "σέξι" λειτουργίες της τεχνητής νοημοσύνης θα μπορούσαν να αλλάξουν το παιχνίδι για την υπηρεσία - αρκεί να μην είναι "μαύρα κουτιά".
"Πρέπει να καταλάβουμε γιατί είναι αξιόπιστο και πώς κάνει αυτό το οποίο κάνει", σημειώνει ο Cattler στο Forbes. "Πρέπει να αποδεικνύουμε, όταν χρησιμοποιούμε αυτά τα εργαλεία για τους σκοπούς που περιγράφω, ότι κάνουν αυτό που λένε ότι κάνουν και το κάνουν αντικειμενικά και με εξαιρετικά συμμορφωμένο προς τη νομοθεσία και συνεπή τρόπο".
Πολλοί άνθρωποι μπορεί να μην σκέφτονται καν τα εργαλεία που περιγράφει ο Cattler ως AI. Ήταν ενθουσιασμένος με την ιδέα της δημιουργίας ενός θερμικού χάρτη των εγκαταστάσεων που διασφαλίζει η DCSA, με τους κινδύνους να σχεδιάζονται σε πραγματικό χρόνο, ενημερώνοντας όταν άλλες κυβερνητικές υπηρεσίες λαμβάνουν μια νέα πληροφορία σχετικά με μια πιθανή απειλή. Ένα τέτοιο εργαλείο, είπε, θα μπορούσε να βοηθήσει την DCSA "να καθορίσει πού θα τοποθετεί τα "πυροσβεστικά οχήματα"". Δεν θα αποκάλυπτε νέες πληροφορίες, θα ήταν απλώς η παρουσίαση των υπαρχουσών πληροφοριών με πιο χρήσιμο τρόπο.
Ο Matthew Scherer, ανώτερος σύμβουλος πολιτικής στο Κέντρο για τη Δημοκρατία και την Τεχνολογία, τονίζει στο Forbes ότι ενώ η τεχνητή νοημοσύνη μπορεί να είναι χρήσιμη για τη συλλογή και την οργάνωση πληροφοριών που έχουν ήδη συγκεντρωθεί και επικυρωθεί, είναι το επόμενο βήμα - η λήψη κρίσιμων αποφάσεων, όπως η επισήμανση "κόκκινων σημαιών" κατά τη διάρκεια μιας διαδικασίας ελέγχου ιστορικού ή συλλογής δεδομένων από προφίλ μέσων κοινωνικής δικτύωσης - κάτι που μπορεί να είναι επικίνδυνο. Για παράδειγμα, τα συστήματα τεχνητής νοημοσύνης εξακολουθούν να αγωνίζονται να διαφοροποιήσουν πολλά άτομα με το ίδιο όνομα, οδηγώντας σε εσφαλμένη αναγνώριση προσώπων.
"Θα είχα ανησυχίες εάν το σύστημα τεχνητής νοημοσύνης έκανε κάποιου είδους συστάσεις για συγκεκριμένους αιτούντες", λέει ο Scherer. "Τότε μεταβαίνετε στη σφαίρα των αυτοματοποιημένων συστημάτων αποφάσεων".
Ο Cattler αναφέρει ότι το τμήμα έχει μείνει μακριά από τη χρήση τεχνητής νοημοσύνης για τον εντοπισμό νέων κινδύνων. Ακόμη και στην ιεράρχηση προτεραιοτήτων, ωστόσο, μπορεί να προκύψουν ζητήματα ιδιωτικότητας και μεροληψίας. Κατά τη σύναψη συμβάσεων με εταιρείες τεχνητής νοημοσύνης (ο Cattler αρνήθηκε να κατονομάσει οποιονδήποτε συνεργάτη), η DCSA πρέπει να εξετάζει ποια ιδιωτικά δεδομένα τροφοδοτεί σε αποκλειστικούς αλγόριθμους και τι μπορούν να κάνουν αυτοί οι αλγόριθμοι με αυτά τα δεδομένα αφού τα αποκτήσουν. Εταιρείες που προσφέρουν προϊόντα τεχνητής νοημοσύνης στο ευρύ κοινό διέρρευσαν ακούσια ιδιωτικά δεδομένα που τους εμπιστεύτηκαν οι πελάτες - μια παραβίαση εμπιστοσύνης που θα ήταν καταστροφική αν συνέβαινε με δεδομένα που κατείχε το ίδιο το Πεντάγωνο.
Η τεχνητή νοημοσύνη θα μπορούσε επίσης να εισαγάγει μεροληψία στα συστήματα του Υπουργείου Άμυνας. Οι αλγόριθμοι αντικατοπτρίζουν τα τυφλά σημεία των ανθρώπων που τους δημιουργούν και τα δεδομένα στα οποία έχουν εκπαιδευτεί και η DCSA βασίζεται στην επίβλεψη του Λευκού Οίκου, του Κογκρέσου και άλλων διοικητικών φορέων για την προστασία από προκαταλήψεις στα συστήματά του. Μια έκθεση της RAND Corporation του 2022 προειδοποιούσε ρητά ότι η τεχνητή νοημοσύνη θα μπορούσε να εισαγάγει προκαταλήψεις στο σύστημα ελέγχου πιστοποιητικών ασφαλείας "ενδεχομένως ως αποτέλεσμα προκαταλήψεων προγραμματιστών ή ιστορικών φυλετικών διαφορών".
Ο Cattler αναγνώρισε ότι οι αλγόριθμοι ενημέρωσης των κοινωνικών αξιών, συμπεριλαμβανομένων εκείνων στο Πεντάγωνο, αλλάζουν με την πάροδο του χρόνου. Σήμερα, λέει, το τμήμα είναι πολύ λιγότερο ανεκτικό σε εξτρεμιστικές απόψεις από ό,τι ήταν στο παρελθόν, αλλά κάπως πιο ανεκτικό με ανθρώπους που κάποτε ήταν εθισμένοι στο αλκοόλ ή τα ναρκωτικά και τώρα βρίσκονται σε ανάρρωση. "Ήταν κυριολεκτικά παράνομο σε πολλά μέρη στις Ηνωμένες Πολιτείες να είσαι ομοφυλόφιλος, μέχρι όχι πολύ καιρό πριν", καταλήγει. "Αυτή ήταν μια προκατάληψη που μπορεί να χρειαζόταν το σύστημα να αποβάλει".