Τι απαντά για τον θάνατό της η Βασίλισσα Ελισάβετ; Πως αξιολογεί μια γνώμη ο Σωκράτης και τι έχει να πει για την απόκτηση του Twitter ο Έλον Μασκ. Σενάριο επιστημονικής φαντασίας; Ίσως και να είναι.
Διαβάστε επίσης: ChatGPT: «Παίξαμε» τις 10 ερωτήσεις με ένα ΑΙ
Μια νέα ιστοσελίδα μου χρησιμοποιεί την τεχνητή νοημοσύνη αναδείχθηκε τους μήνες του καλοκαιριού. Με το Character.AI, οι χρήστες μπορούν να συνομιλήσουν με διάσημες προσωπικότητες και όχι μόνο.
Από τη Βασίλισσα Ελισάβετ ή τον Ουίλιαμ Σαίξπηρ έως την Μπίλι Αϊλις ή τον Έλον Μασκ. Το μόνο που έχουν να κάνουν, είναι να «μπουν» στην σχετική συνομιλία που τους ενδιαφέρει και να ξεκινήσουν τη συζήτηση. Πέραν των διασημοτήτων, η πλατφόρμα δίνει την δυνατότητα στους χρήστες να ξεκινήσουν μια συνεδρία με ένα bot ψυχολόγο καθώς και με έναν ψηφιακό βοηθό σχέσεων. Στην κορυφή κάθε συνομιλίας φυσικά υπάρχει το disclaimer: Οτιδήποτε λένε οι χαρακτήρες, δεν είναι πραγματικό.
Ο ιστότοπος, που δημιουργήθηκε από τους Daniel De Freitas και Noam Shazeer, δύο πρώην ερευνητές της Google, αποτελεί μία από τις πολλές προσπάθειες τους για την κατασκευή ενός νέου είδους chatbot. Μπορεί τα εν λόγω bots στις συνομιλίες να μην μπορούν να συνομιλήσουν ακριβώς όπως ένας άνθρωπος, όμως φτάνουν πολύ κοντά, γεγονός που καταδεικνύει και το στάδιο στο οποίο βρίσκεται η τεχνολογία της τεχνητής νοημοσύνης.
Το ChatGPT και άλλες τεχνολογίες
Στα τέλη Νοεμβρίου, η OpenAI, μια εταιρεία ανάπτυξης τεχνολογιών που αφορούν την τεχνητή νοημοσύνη στο Σαν Φρανσίσκο, λάνσαρε ένα μοντέλο με το όνομα ChatGPT που άφησε την αίσθηση σε περισσότερους από ένα εκατομμύριο ανθρώπους ότι συνομιλούν με άλλον άνθρωπο κατά την διάρκεια χρήσης του.
Παρόμοιες τεχνολογίες βρίσκονται υπό ανάπτυξη από Google, τη Meta και άλλους τεχνολογικούς κολοσσούς. Μάλιστα, ορισμένες από αυτές είναι απρόθυμες να μοιραστούν την εν λόγω τεχνολογία με το ευρύτερο κοινό.
Οι κίνδυνοι που ελλοχεύουν
Ωστόσο, η ανάπτυξη των εν λόγω εργαλείων ΑΙ εγκυμονεί και κινδύνους καθώς τα μοντέλα «μαθαίνουν» από δεδομένα που δημοσιεύονται στο διαδίκτυο από πραγματικούς ανθρώπους, γεγονός που τα οδηγεί συχνά στην δημιουργία αναληθούς περιεχομένου και στην διασπορά προκατειλημμένων πεποιθήσεων σε διάφορα ζητήματα, όπως αυτό της ισότητας των φύλων.
Επιπρόσθετα, η χρήση τους από hackers μπορεί να βοηθήσει στην δημιουργία κακόβουλων λογισμικών, ενώ μπορούν να χρησιμοποιηθούν και από συγκεκριμένες ομάδες ως προς την ενίσχυση των εκστρατειών παραπληροφόρησης για θέματα όπως αυτό των εμβολίων του κορωνοϊού αλλά και του πολέμου στην Ουκρανία.