«Η τεχνητή νοημοσύνη είναι στατιστική επιστήμη. Τα αρχεία ενός αλγορίθμου μηχανικής μάθησης βασίζονται σε κάποια μη γραμμικά μοντέλα που έχουν εκατομμύρια παραμέτρους. Όμως, ο αλγόριθμος μπορεί να δημιουργήσει μια αληθοφανή και όχι αληθή πληροφορία και χρειάζεται φιλτράρισμα της πληροφορίας. Δεν μπορείς να αφήνεις την ευθύνη στον αλγόριθμο» παρατήρησε ο Κωνσταντίνος Δασκαλάκης σε εκδήλωση που έγινε χτες από το Ίδρυμα Κωνσταντίνου Σημίτη με θέμα «Τεχνητή Νοημοσύνη & Αρχεία: Μια σχέση συμπληρωματικότητας ή αντιπαλότητας;».
Ο έλληνας καθηγητής του ΜΙΤ, κάτοχος διεθνούς βραβείου μαθηματικών και επικεφαλής της συμβουλευτικής Επιτροπής για την Τεχνητή Νοημοσύνη, παρατήρησε πως «η σημερινή Τεχνητή Νοημοσύνη είναι μια χύμα εξυπνάδα. Έχεις ένα βοηθό που είναι πολύ γρήγορος, πάρα πολύ έξυπνος αλλά όχι αξιόπιστος. Θα σας δώσω ένα παράδειγμα: όταν προέκυψαν οι πρώτοι αλγόριθμοι κατανόησης μιας εικόνας, διαπιστώθηκε ότι όταν κλήθηκε ο αλγόριθμος να πει αν μια εικόνα περιέχει σκύλο ή λύκο, το πιο σημαντικό σημείο διάκρισης ήταν αν υπήρχε πολύ πράσινο στον περίγυρο του σκύλου, ή πολύ άσπρο στον περίγυρο του λύκου. Επειδή οι περισσότερες εικόνες στις οποίες είχε εκπαιδευτεί ο αλγόριθμος, είχαν σκύλους που έτρεχαν σε λιβάδια και λύκους σε χιονισμένα τοπία.
Αν επομένως του δείχναμε ένα λύκο σε γρασίδι, θα έλεγε ότι είναι σκύλος και αν είχαμε ένα σκύλο σε χιόνι, θα τον έλεγε λύκο. Αυτό είναι το πρόβλημα: αν έχεις πολυδιάστατα μοντέλα και δεδομένα, δεν θα φτάσεις στο επίπεδο της κατανόησης που έχουμε συνηθίσει».
Κατά τον ομιλητή επίσης, «η Τεχνητή Νοημοσύνη εξυπηρετεί σε μια εύκολη και γρήγορη πρόσβαση σε αρχειακό υλικό του παρελθόντος, ενώ μέσα από την πλοήγηση του κάθε χρήστη αποκτάται μια προσωπική αφήγηση πάνω σε μια πληροφορία. Η Τεχνητή Νοημοσύνη επίσης, μπορεί να βελτιώσει τις επιδόσεις του ανθρώπου σε κάποιες δεξιότητες – πχ στο σκάκι, καθώς ο αλγόριθμος μιμούμενος το παιχνίδι μεγάλων σκακιστών θα βρίσκει μεθόδους που η μηχανή θα νικάει τον άνθρωπο κι έτσι ο άνθρωπος θα μπορεί να ανατροφοδοτεί την ικανότητά του να παίζει σκάκι».
Ωστόσο, τόνισε ο ομιλητής, «τα εργαλεία της Τεχνητής Νοημοσύνης δεν είναι πάντα αξιόπιστα, αν τα δεδομένα που έχει στη διάθεσή του ο αλγόριθμος είναι αποσπασματικά ή περιέχουν στερεότυπα. Στην αφετηρία δηλαδή ο άνθρωπος πρέπει διαμορφώσει ένα αρχειακό υλικό σύνθετο που να αντιπροσωπεύει και τις αξίες που προτάσσει».
Δεν είναι αντίπαλος η Τεχνητή Νοημοσύνη
Ο καθηγητής Τίμος Σελλής, κάτοχος πολλών διακεκριμένων διεθνών βραβείων και Διευθυντής της Ερευνητικής Μονάδας «Αρχιμήδης» του Ερευνητικού Κέντρου «Αθηνά» σημείωσε σχετικά πως «δεν θα μπορούσε ποτέ η Τεχνητή Νοημοσύνη να είναι αντίπαλος οποιουδήποτε, γιατί είναι αποτέλεσμα δικής μας δουλειάς. Δεν είναι αυθύπαρκτο πράγμα που επιτάσσει τον άνθρωπο. Προσωπικά δεν μου αρέσει να μιλάω για Τεχνητή Νοημοσύνη, μου αρέσει να μιλάω για ψηφιακό μετασχηματισμό ή εξέλιξη της τεχνολογίας.
Γιατί η Τεχνητή Νοημοσύνη παραπέμπει στο πρωθύστερο στάδιο της «νοημοσύνης». Αν ο άνθρωπος μπορούσε να είναι νοήμων σε όλες τις διαστάσεις, θα μπορούσε να φτιάξει Τεχνητή Νοημοσύνη. Αλλά δεν είναι τόσο νοήμων. Αυτή είναι η άποψή μου. Άρα, η Τεχνητή Νοημοσύνη μόνο υποστηρικτική μπορεί να είναι – και για τα αρχεία και για όλα τα υπόλοιπα».
Για παράδειγμα, ο κ. Σελλής παρατήρησε ότι ο χρήστης ενός αρχείου «έπρεπε ως τώρα να συμπληρώσει πεδία αναζήτησης που είχαν προκαθοριστεί από κάποιον άλλο. Αν όμως ήθελε να βάλει την μόνη πληροφορία που διέθετε και δεν υπήρχε προκαθορισμένο πεδίο για να τη γράψει, η αναζήτησή του ήταν άκαρπη. Η μεταπληροφορία εξάλλου που συμπληρώνει τις πληροφορίες ενός τεκμηρίου, ή οι λέξεις-κλειδιά που έχουν καταχωρηθεί, επαφίενται στην κρίση του προσώπου που ψηφιοποίησε το αρχείο στη βάση ορισμένων άκαμπτων κανόνων. Με την Τεχνητή Νοημοσύνη μπορούμε να βρούμε μια επιστολή από bτις λέξεις που περιέχει, ενώ με τους «γράφους γνώσης» μπορεί ο χρήστης να πλοηγηθεί σε συναφή πεδία αποκτώντας μια πιο σφαιρική εικόνα».
Τεχνητή Νοημοσύνη και Ιδιωτικότητα
Η καθηγήτρια του τμήματος Μηχανικών Πληροφοριακών και Επικοινωνιακών Συστημάτων του Πανεπιστημίου Αιγαίου, Πρόεδρος του Ινστιτούτου για την Ιδιωτικότητα, τα Προσωπικά Δεδομένα και την Τεχνολογία, Λίλιαν Μήτρου επικεντρώθηκε σε ζητήματα ιδιωτικότητας και προσωπικών δεδομένων.
Χαρακτηριστικά τόνισε ότι, αυτό που αλλάζει στην εποχή μας σε σχέση με την ΤΝ είναι η τεράστια διαθεσιμότητα πληροφορίας και η ανάλυση δεδομένων μεγάλης κλίμακας. Στη συνέχεια, έθεσε το ερώτημα του τι επιτρέπεται στην έρευνα, την αξιοποίηση των πληροφοριών και που αυτά συναντώνται με την προστασία της ιδιωτικότητας και των προσωπικών δεδομένων.
Η ομιλήτρια ανέλυσε το διακριτό σημείο που πολλαπλασιάζει τους κινδύνους ιδιωτικότητας και προσωπικών δεδομένων, αναφέροντας ότι «η ΤΝ επιτρέπει, μέσω του συνδυασμού πληροφοριών και της συναγωγής συμπερασμάτων και μοτίβων, να εντοπίσει και να ταυτοποιήσει πρόσωπα με τρόπο που δεν γινόταν πριν, το οποίο είναι θετικό για την έρευνα αλλά με όρια. Καθώς σε συνδυασμό με μία άλλη αβλαβή πληροφορία μπορεί να αναδειχθεί μία άλλη ποιότητα που με τη σειρά της μπορεί να δημιουργήσει πρόβλημα στο πρόσωπο».
Η κυρία Μήτρου τέλος, ανέφερε ότι η ιδιωτικότητα βρίσκεται μονίμως σε ένταση και σημείωσε ότι δεν πρέπει να την αντιμετωπίζουμε ως μία κατάσταση απόσεισης του προσώπου, αλλά ως μία κατάσταση που πρέπει να έχει καταρχήν το πρόσωπο για τον έλεγχο επί των πληροφοριών του (πληροφοριακός ορίζοντας).
Τενχητή Νοημοσύνη και ιδεατή πραγματικότητα
Ο ομότιμος καθηγητής Βασίλης Μάγκλαρης επικεφαλής της πρωτοβουλίας διασύνδεσης όλων των ελληνικών Πανεπιστημίων και Ερευνητικών Ιδρυμάτων παρατήρησε, ότι στην Τεχνητή Νοημοσύνη υπάρχει το διακριτικό μοντέλο, που αναφέρεται στην αναζήτηση μέσω του ίντερνετ και την άντληση μιας πληροφορίας από ένα τεράστιο παρελθόν πληροφοριών και το παραγωγικό μοντέλο, που μέσω του λογισμικού διαμορφώνεται μια ιδεατή πραγματικότητα.
Ο ομιλητής σημείωσε επίσης ότι, οι «κακοί παίκτες» στη χρήση της Τεχνητής Νοημοσύνης μπορεί να οδηγήσουν σε επιζήμια αποτελέσματα παραπέμποντας σχετικά στην παραίτηση του γκουρού της Τεχνητής Νοημοσύνης Geoffrey Hinton από την Google «για να έχει την ελευθερία να καταδικάζει τους κινδύνους της Τεχνητής Νοημοσύνης και της Μηχανικής Μάθησης. Και για να μην πέσουμε στο άλλο άκρο» κατέληξε ο ομιλητής, «του λουδισμού, όταν στην Αγγλία οι λουδίτες κατέστρεφαν τις μηχανές γιατί η βιομηχανική επανάσταση θα έφερνε ανεργία, θα πρέπει να υπάρξει μια ρύθμιση στην πρόοδο της επιστήμης και της τεχνολογίας».
Να μην υπάρχει φόβος απέναντι στις νέες εξελίξεις
Η Άννα Διαμαντοπούλου τέλος, πρώην υπουργός, Επίτροπος και νυν Πρόεδρος του Δικτύου για τη Μεταρρύθμιση στην Ελλάδα και την Ευρώπη παρατήρησε ότι «την Τεχνητή Νοημοσύνη τη γνωρίζουμε εδώ και πολλά χρόνια. Το chat gpt έκανε τον κόσμο να συνειδητοποιήσει ότι κάτι εξελίσσεται οριζόντια και πάρα πολύ γρήγορα».
Η εξυπηρέτηση που προσφέρει η Τεχνητή Νοημοσύνη στη διοίκηση και στην επιστήμη, είναι κατά την κ. Διαμαντοπούλου «η συγκρότηση ενός πλήθους αρχείων (στην τελική διαμόρφωση των οποίων όμως πρέπει να υπάρχει έλεγχος) και η συσχέτιση – με άλλες περιοχές του πλανήτη και άλλες εποχές».
Κατά την ομιλήτρια εξάλλου, «η πολιτική πρέπει να βάλει το ρυθμιστικό πλαίσιο που να συνδυάζει την παραγωγή της Τεχνητής Νοημοσύνης με την ιδιωτικότητα και τα προσωπικά δεδομένα, να προετοιμάζει την κοινωνία για το άλμα που απαιτείται να κάνει για την εξοικείωσή της με τις τεχνολογικές εξελίξεις και να εμπλουτίζει το περιεχόμενο της πολιτικής. Και τέλος, είπε η κ. Διαμαντοπούλου, «δεν πρέπει να διακατεχόμαστε από τον φόβο απέναντι στις νέες εξελίξεις. Εγώ ασπάζομαι τη ρήση του Ελύτη: την πρόοδο πρέπει να τη τρώμε με τη φλούδα και τα κουκούτσια της».