Η Δημιουργική ή Τεχνητή Νοημοσύνη (Generative AI) δίνει στις επιχειρήσεις τη δυνατότητα να γίνουν πιο αποτελεσματικές και παραγωγικές. Εγκυμονεί όμως και μια σειρά κινδύνους.
Για τον λόγο αυτόν ορισμένες εταιρείες έχουν υιοθετήσει κανόνες για τη χρήση της δημιουργικής τεχνητής νοημοσύνης στον επαγγελματικό χώρο – ελπίζοντας να αξιοποιήσουν στο μέγιστο το νέο αυτό εργαλείο περιορίζοντας παράλληλα κάποιους από τους κινδύνους που ελλοχεύουν. Ας δούμε μερικούς από τους κανόνες αυτούς:
Προσοχή στις προκαταλήψεις
Οι επιχειρήσεις θα πρέπει να έχουν υπόψη τους ότι τα μοντέλα δημιουργικής τεχνητής νοημοσύνης που «εκπαιδεύονται» με βάση δημόσια διαθέσιμα σύνολα δεδομένων και πληροφοριών είναι πιθανό να αντανακλούν τις δημογραφικές προκαταλήψεις του υλικού αυτού.
Οι προκαταλήψεις αυτού του είδους δεν είναι πάντοτε ευδιάκριτες αλλά, αν το υλικό που παράγεται μέσω τεχνητής νοημοσύνης στη συνέχεια περάσει από ανθρώπινη κρίση, μπορούν να αποσοβηθούν κάποιοι από τους κινδύνους προκαταλήψεων, λέει ο Jason Schloetzer, αναπληρωτής καθηγητής στη Σχολή Διοίκησης Επιχειρήσεων McDonough του Πανεπιστημίου της Georgetown, που διδάσκει εταιρική διακυβέρνηση. Οι επιχειρήσεις μπορούν να υιοθετήσουν μια διαδικασία κατά την οποία καθετί που παράγεται μέσω δημιουργικής τεχνητής νοημοσύνης θα ελέγχεται τόσο από τον κάθε υπάλληλο όσο και από ειδικές ομάδες που θα συγκροτούνται για τον σκοπό αυτόν, ώστε να διασφαλίζεται ότι η εταιρεία θα μπορεί να υπερασπιστεί το υλικό αυτό.
Οταν οι επιχειρήσεις επιλέγουν ένα πρόγραμμα δημιουργικής τεχνητής νοημοσύνης, πρέπει να είναι βέβαιες ότι κατανοούν απολύτως πώς θα αποθηκεύονται τα δεδομένα που εισάγονται στο σύστημα
Μην κοινοποιείτε ευαίσθητες πληροφορίες
Τα περισσότερα προγράμματα δημιουργικής τεχνητής νοημοσύνης αποθηκεύουν τους διαλόγους και τις εντολές (prompts) που εισάγονται στο πρόγραμμα και χρησιμοποιούν τα δεδομένα αυτά για να εκπαιδεύουν τα μοντέλα τους. Ετσι υπάρχει αυξημένος κίνδυνος οι πληροφορίες αυτές να εμφανιστούν σε δεύτερο χρόνο ως απάντηση σε ένα ερώτημα που θέτει κάποιος άλλος.
Για παράδειγμα, κατ’ αυτόν τον τρόπο θα μπορούσαν να αποκαλυφθούν πληροφορίες όπως κώδικες προγραμματισμού, στοιχεία πελατών, πρακτικά εταιρικών συσκέψεων, ηλεκτρονική αλληλογραφία και οικονομικά δεδομένα ή δεδομένα πωλήσεων της εταιρείας.
«Βεβαιωθείτε ότι έχετε ορίσει με μεγάλη σαφήνεια τι θα εισάγετε στο σύστημα». Αυτός είναι ένας καλός γενικός κανόνας, λέει η Alicia Arnold, διευθύνουσα σύμβουλος της συμβουλευτικής εταιρείας Fifty Five, που ειδικεύεται σε τεχνολογικές δράσεις για επιχειρήσεις. Κάποιες εταιρείες έχουν περιορίσει τη χρήση δημόσιων προγραμμάτων δημιουργικής τεχνητής νοημοσύνης ή τα έχουν απαγορεύσει εντελώς για την πλειονότητα των υπαλλήλων τους, προκειμένου να αποφύγουν την πιθανή διαρροή ευαίσθητων εσωτερικών πληροφοριών.
Να είστε αυστηροί στην επιλογή προγραμμάτων
Υπάρχουν ασφαλέστερες επιλογές από τα δημόσια προγράμματα τεχνητής νοημοσύνης. Αντί για τις δημόσιες εκδόσεις, καλό είναι οι επιχειρήσεις να χρησιμοποιούν τα λεγόμενα μοντέλα επιχειρηματικού επιπέδου – συνήθως πρόκειται για συνδρομητικά πακέτα για επιχειρήσεις που παρέχουν μεγαλύτερη ασφάλεια για τα εταιρικά δεδομένα – όταν αυτό είναι δυνατό, αναφέρει ο Arun Chandrasekaran, αναλυτής της συμβουλευτικής εταιρείας Gartner, με ειδίκευση στην τεχνητή νοημοσύνη. Προγράμματα όπως το ChatGPT Enterprise και το Bing Chat Enterprise της Microsoft υπόσχονται ασφάλεια από διαρροές ευαίσθητων εταιρικών δεδομένων.
Οταν οι επιχειρήσεις επιλέγουν ένα πρόγραμμα δημιουργικής τεχνητής νοημοσύνης, πρέπει να είναι βέβαιες ότι κατανοούν απολύτως πώς θα αποθηκεύονται τα δεδομένα που εισάγονται στο σύστημα και ποιος θα έχει πρόσβαση στις πληροφορίες αυτές, λέει ο Chandrasekaran.
Προσοχή στις «ψευδαισθήσεις» της δημιουργικής τεχνητής νοημοσύνης προειδοποιούν οι ειδικοί. Οι ψευδαισθήσεις αυτές είναι αποτελέσματα που παράγονται από τα προγράμματα τεχνητής νοημοσύνης και εμπεριέχουν ψευδείς ή ανακριβείς πληροφορίες, οι οποίες θα μπορούσαν να παραπλανήσουν οποιονδήποτε, μέσα ή έξω από την εταιρεία. «Η παραπληροφόρηση μπορεί να υπονομεύσει την αξιοπιστία» προειδοποιεί ο Chandrasekaran, και οι ψευδαισθήσεις μπορεί ενίοτε να είναι αρκετά αληθοφανείς ώστε να περάσουν απαρατήρητες. Ο έλεγχος της προέλευσης των πληροφοριών πριν από τη χρήση περιεχομένου που παράγεται από προγράμματα τεχνητής νοημοσύνης μπορεί να βοηθήσει ώστε να μειωθούν οι ανακρίβειες.
Ή, για να πάμε ένα βήμα παραπέρα, προτείνει ο Chandrasekaran, οι εταιρείες μπορούν να κάνουν ειδικές συμφωνίες με τις εταιρείες που πωλούν προγράμματα δημιουργικής τεχνητής νοημοσύνης, που θα προβλέπουν ότι το σύστημα θα εκπαιδευτεί αποκλειστικά στη βάση των δεδομένων που θα παράσχει η εταιρεία ώστε να μη συμπεριληφθούν πιθανώς ανακριβείς εξωτερικές πληροφορίες.
Αλλες εταιρείες έχουν επιλέξει να σχεδιάσουν οι ίδιες τα δικά τους ιδιόκτητα προγράμματα, έτσι ώστε το προσωπικό τους να μπορεί να χρησιμοποιεί την τεχνητή νοημοσύνη με μεγαλύτερη ασφάλεια. Ο Schloetzer αναφέρει ότι οι περισσότερες από τις εταιρείες που ενθαρρύνουν τη χρήση δημιουργικής τεχνητής νοημοσύνης στον επαγγελματικό χώρο, με τις οποίες έχει συνεργαστεί ως σύμβουλος, διαθέτουν ήδη ή σχεδιάζουν κάποια ιδιόκτητα προγράμματα για να διατηρήσουν ασφαλή τα δεδομένα τους.
Ο Sathish Muthukrishnan, προϊστάμενος πληροφορικής, δεδομένων και ψηφιακών εφαρμογών στην εταιρεία χρηματοοικονομικών υπηρεσιών Ally Financial, εξηγεί ότι η Ally.ai, η εσωτερική πλατφόρμα τεχνητής νοημοσύνης της εταιρείας, λειτουργεί ως γέφυρα μεταξύ των πληροφοριών της εταιρείας και των εξωτερικών προγραμμάτων τεχνητής νοημοσύνης. Την περιγράφει ως μια τεχνολογία υποστηρικτικού χαρακτήρα κυρίως, που έχει πάντα «έναν άνθρωπο στο επίκεντρο».
Στις περιπτώσεις που έχει χρησιμοποιηθεί τεχνητή νοημοσύνη για τη δημιουργία περιεχομένου, αυτό είναι απαραίτητο να δηλώνεται για λόγους διαφάνειας, ενώ είναι ιδιαίτερα σημαντικό για τους υπαλλήλους που έρχονται σε επαφή με τους πελάτες, λέει ο Schloetzer. Λόγω των νομικών ευθυνών που μπορεί να προκύψουν από τη χρήση ανακριβούς ή ακατάλληλου περιεχομένου που έχει παραχθεί μέσω τεχνητής νοημοσύνης, οι πελάτες θα πρέπει να γνωρίζουν εκ των προτέρων ότι το υλικό που λαμβάνουν ή χρησιμοποιούν – σε μια διαφημιστική καμπάνια, για παράδειγμα – έχει παραχθεί εν μέρει μέσω τεχνητής νοημοσύνης.
Προσοχή στην παραβίαση πνευματικών δικαιωμάτων
Ενίοτε, το περιεχόμενο που έχει δημιουργηθεί μέσω τεχνητής νοημοσύνης μπορεί να έχει βασιστεί στο έργο ενός καλλιτέχνη ή συγγραφέα το οποίο προστατεύεται από τους νόμους περί πνευματικής ιδιοκτησίας, γεγονός που είναι πιθανό να εγείρει νομικά ζητήματα.
Οι πρώτες σχετικές δικαστικές αποφάσεις απέρριψαν τους ισχυρισμούς για παραβίαση πνευματικών δικαιωμάτων, ενώ και η Υπηρεσία Πνευματικής Ιδιοκτησίας των ΗΠΑ έχει επανειλημμένως απορρίψει αξιώσεις πνευματικών δικαιωμάτων σε περιπτώσεις έργων τέχνης που έχουν δημιουργηθεί μέσω τεχνητής νοημοσύνης. Ωστόσο, εκκρεμούν στα δικαστήρια πολλές αγωγές δημιουργών, συμπεριλαμβανομένης μιας ομαδικής αγωγής κατά της OpenAI για παραβίαση πνευματικών δικαιωμάτων που έχει κατατεθεί από μια ομάδα δημιουργών και είναι ακόμα σε εξέλιξη σε πρωτοδικείο του Σαν Φρανσίσκο. (Η OpenAI δεν μπορεί να σχολιάσει εκκρεμείς δικαστικές αποφάσεις, δήλωσε εκπρόσωπος της OpenAI.)
Το Γραφείο Πνευματικής Ιδιοκτησίας των ΗΠΑ διεξάγει μελέτη για την τεχνητή νοημοσύνη από τον Αύγουστο ενώ και η Ομοσπονδιακή Επιτροπή Εμπορίου (FederalTrade Commission) εκδήλωσε ενδιαφέρον να εξετάσει το ζήτημα, υποβάλλοντας ένα σχόλιο πάνω στη μελέτη το οποίο θέτει ζητήματα πνευματικών δικαιωμάτων αναφορικά με προγράμματα που «αντλούν υλικό από δημόσιες ιστοσελίδες χωρίς συναίνεση». Εν τούτοις, δεν υπάρχουν ακόμα σαφείς κανόνες όσον αφορά τη χρήση υλικού με πνευματικά δικαιώματα στην τεχνητή νοημοσύνη.
Μέχρις ότου θεσπιστούν οι κανόνες αυτοί, ορισμένοι ειδικοί συνιστούν οι νομικές υπηρεσίες των επιχειρήσεων να λαμβάνουν προληπτικά μέτρα και να ελέγχουν όλο το υλικό που παράγεται μέσω τεχνητής νοημοσύνης για πιθανά ζητήματα πνευματικών δικαιωμάτων. Σύμφωνα με τους ειδικούς, οι εταιρείες θα πρέπει επίσης να εξετάζουν το ενδεχόμενο να ζητούν από τους παρόχους προγραμμάτων δημιουργικής τεχνητής νοημοσύνης νομικές εγγυήσεις έναντι αποζημιώσεων. Μετά τη Microsoft και την Adobe, πρόσφατα και η Google ξεκίνησε να προσφέρει προγράμματα κάλυψης αποζημιώσεων για προϊόντα δημιουργικής τεχνητής νοημοσύνης.
Η Lindsey Choo είναι δημοσιογράφος στη Νότια Καλιφόρνια. Μπορείτε να επικοινωνήσετε μαζί της στη διεύθυνση reports@wsj.com.