Ο Φάμπιο Μοτόκι, καθηγητής στο Πανεπιστήμιο της Ανατολικής Αγγλίας, θεωρεί επίσης ότι το ChatGPT είναι φιλελεύθερο.
Οι δύο επιστήμονες υπέβαλαν το ChatGpt σε περισσότερο ή λιγότερο αυστηρές δοκιμές για να μετρήσουν τις πολιτικές προκαταλήψεις του πιο δημοφιλούς Chatbot στο διαδίκτυο. «Η πλατφόρμα τεχνητής νοημοσύνης ChatGPT δείχνει μια σημαντική και συστημική αριστερή προκατάληψη», σύμφωνα με μια νέα μελέτη του Πανεπιστημίου της Ανατολικής Αγγλίας, στο Νόριτς.
Οι ερευνητές ζήτησαν από το ChatGPT να «μετάσχει» σε μια έρευνα σχετικά με τις πολιτικές πεποιθήσεις, τις οποίες εκφράζουν οι υποστηρικτές των φιλελεύθερων και κεντροαριστερών κομμάτων. Στη συνέχεια ζήτησαν από το ChatGPT να απαντήσει στις ίδιες ερωτήσεις χωρίς καμία προτροπή και συνέκριναν τα δύο σετ απαντήσεων.
«Πολιτική προκατάληψη»
«Τα αποτελέσματα έδειξαν μια «σημαντική και συστηματική πολιτική προκατάληψη» υπέρ των Δημοκρατικών στις Ηνωμένες Πολιτείες, αλλά και του προέδρου Λούλα ντα Σίλβα στη Βραζιλία και στο Εργατικό Κόμμα στο Ηνωμένο Βασίλειο».
«Η έρευνα για τα chatbots δείχνει ότι αν και οι σχεδιαστές τους προσπαθούν να ελέγξουν πιθανές προκαταλήψεις, τα ρομπότ είναι εμποτισμένα με υποθέσεις, πεποιθήσεις και στερεότυπα που βρίσκονται σε δέσμες δεδομένων που έχουν αφαιρεθεί από το ανοιχτό διαδίκτυο στο οποίο εκπαιδεύονται».
Σχεδόν μόλις κυκλοφόρησε το ChatGPT πέρυσι τον Νοέμβριο, δεξιοί ακτιβιστές άρχισαν να το κατηγορούν ότι είχε φιλελεύθερη προκατάληψη επειδή «υποστήριζε» τη θετική δράση και τα δικαιώματα των τρανς.
Τον περασμένο Φεβρουάριο το ChatGPT «δημοσίευσε» ένα ποίημα που επαινούσε τον πρόεδρο Μπάιντεν, αλλά αρνήθηκε να κάνει το ίδιο για τον πρώην πρόεδρο Ντόναλντ Τραμπ .Εκπρόσωπος του Ρεπουμπλικάνου γερουσιαστή Τεντ Κρουζ κατηγόρησε τότε την OpenAI για σκόπιμη δημιουργία πολιτικής προκατάληψης στο bot του.
Το νέο κύμα chatbots όπως το ChatGPT του OpenAI, το Bard της Google και το Bing της Microsoft βασίζεται σε «μεγάλα γλωσσικά μοντέλα»-σε αλγόριθμους που έχουν αφομοιώσει δισεκατομμύρια προτάσεις από το ανοιχτό Διαδίκτυο. Οι αλγόριθμοι μπορούν να απαντήσουν σε μια σειρά θεμάτων. Επειδή όμως έχουν εκπαιδευτεί σε τόσα πολλά δεδομένα, οι εταιρείες που τα κατασκευάζουν δεν ελέγχουν τι ακριβώς περιλαμβάνουν τα bots. Το Διαδίκτυο αντικατοπτρίζει τις προκαταλήψεις που έχουν οι άνθρωποι, έτσι και τα bots αναλαμβάνουν αυτές τις προκαταλήψεις.
Μεροληπτικά ρομπότ;
Ο Τσαντ Παρκ, ερευνητής στο Πανεπιστήμιο Carnegie Mellon στο Πίτσμπουργκ, έχει μελετήσει πώς τα διαφορετικά μεγάλα γλωσσικά μοντέλα παρουσιάζουν διαφορετικούς βαθμούς μεροληπτικότητας. Διαπίστωσε ότι τα ρομπότ που εκπαιδεύτηκαν σε δεδομένα Διαδικτύου μετά την εκλογή του Ντόναλντ Τραμπ στην αμερικανική προεδρία το 2016, έδειξαν μεγαλύτερη πόλωση από τα ρομπότ που εκπαιδεύτηκαν σε δεδομένα πριν από τις εκλογές.
«Η πόλωση στην κοινωνία αντικατοπτρίζεται στην πραγματικότητα και στα μοντέλα», είπε ο Παρκ. Καθώς τα bots αρχίζουν να χρησιμοποιούνται περισσότερο, ένα αυξημένο ποσοστό των πληροφοριών στο διαδίκτυο θα δημιουργηθεί από bots. Καθώς αυτά τα δεδομένα τροφοδοτούνται ξανά σε νέα chatbots, μπορεί στην πραγματικότητα να αυξήσει την πόλωση των απαντήσεων, είπε.
Η ομάδα του Πάρκ δοκίμασε 14 διαφορετικά μοντέλα chatbot θέτοντας πολιτικές ερωτήσεις για θέματα όπως η μετανάστευση, η κλιματική αλλαγή, ο ρόλος της κυβέρνησης και ο γάμος μεταξύ ατόμων του ιδίου φύλου. Η έρευνα, που κυκλοφόρησε νωρίτερα αυτό το καλοκαίρι, έδειξε ότι τα μοντέλα που αναπτύχθηκαν από την Google με την ονομασία Bidirectional Encoder Representations from Transformers, ή BERT, ήταν πιο συντηρητικά κοινωνικά, πιθανώς επειδή είχαν εκπαιδευτεί περισσότερο με βιβλία, σε σύγκριση με άλλα μοντέλα που στηρίχτηκαν περισσότερο σε δεδομένα στο Διαδίκτυο και στα κοινωνικά σχόλια των μέσων ενημέρωσης. Το μοντέλο LLaMA του Facebook ήταν ελαφρώς πιο αυταρχικό και δεξιό, ενώ το GPT-4 του OpenAI, έτεινε να είναι πιο φιλελεύθερο οικονομικά και κοινωνικά.
Ένας παράγοντας που παίζει ρόλο μπορεί να είναι ο όγκος της άμεσης ανθρώπινης εκπαίδευσης που έχουν περάσει τα chatbots. Οι ερευνητές έχουν επισημάνει τον εκτεταμένο αριθμό ανθρωπίνων σχολίων, που έχουν λάβει τα bots του OpenAI σε σύγκριση με τους αντιπάλους του, ως έναν από τους λόγους που απαντούν σε περίπλοκες ερωτήσεις αποφεύγοντας να στραφούν σε ρατσιστική ή σεξιστική ρητορική μίσους, όπως έκαναν συχνά τα προηγούμενα chatbot.
Εκλογικό διακύβευμα
Το διακύβευμα είναι μεγάλο καθώς οι Ηνωμένες Πολιτείες οδεύουν προς τι προεδρικές εκλογές του 2024 και τα chatbot γίνονται μέρος της καθημερινής ζωής για μερικούς ανθρώπους, οι οποίοι χρησιμοποιούν το ChatGPT και άλλα ρομπότ όπως το Bard της Google για να απαντήσουν σε ερωτήσεις και να τους βοηθήσουν στη διαμόρφωση άποψης,με επαγγελματική και προσωπική γραφή.
Η Google έχει αρχίσει να χρησιμοποιεί την τεχνολογία chatbot για να απαντά σε ερωτήσεις απευθείας, ενώ οι πολιτικές καμπάνιες έχουν στραφεί στα ρομπότ για να γράφουν μηνύματα και emails για τη συγκέντρωση οικονομικών ενισχύσεων και τη δημιουργία πολιτικών διαφημίσεων. «Το ChatGPT θα πει στους χρήστες ότι δεν έχει πολιτικές απόψεις ή πεποιθήσεις, αλλά στην πραγματικότητα δείχνει ορισμένες προκαταλήψεις», λέει ο Φάμπιο Μοτόκι .«Υπάρχει κίνδυνος διάβρωσης της εμπιστοσύνης του κοινού ή ίσως ακόμη και επηρεασμού των εκλογικών αποτελεσμάτων». Η μητρική εταιρία OpenAI λέει πάντως πώς έχει πει ρητά στους εκπαιδευτές του ChatGPT να μην ευνοούν κάποια συγκεκριμένη πολιτική ομάδα. Τυχόν προκαταλήψεις που εμφανίζονται στις απαντήσεις του ChatGPT «είναι σφάλματα, όχι ηθελημένα», δήλωσε η εταιρεία σε ανάρτησή της.
Επηρεάζουν το εκλογικό αποτέλεσμα;
Αν και τα chatbots είναι μια «συναρπαστική τεχνολογία, δεν είναι χωρίς ελαττώματα», έγραψαν στελέχη της Google AI, ανακοινώνοντας την ευρεία ανάπτυξη του Bard. «Επειδή μαθαίνουν από ένα ευρύ φάσμα πληροφοριών που αντικατοπτρίζουν προκαταλήψεις και στερεότυπα του πραγματικού κόσμου, αυτά εμφανίζονται μερικές φορές στα αποτελέσματά τους».
Για χρόνια, βρίσκεται πάντως σε εξέλιξη μια συζήτηση σχετικά με το πώς τα μέσα κοινωνικής δικτύωσης και το διαδίκτυο επηρεάζουν τα πολιτικά αποτελέσματα.
Το Διαδίκτυο έχει γίνει βασικό εργαλείο για τη διάδοση πολιτικών μηνυμάτων και για να μαθαίνουν οι άνθρωποι για τους υποψηφίους. Αλλά την ίδια στιγμή, οι αλγόριθμοι των μέσων κοινωνικής δικτύωσης που ενισχύουν τα πιο αμφιλεγόμενα μηνύματα, μπορούν επίσης να συμβάλουν στην πόλωση. Διάφορες κυβερνήσεις χρησιμοποιούν επίσης τα μέσα κοινωνικής δικτύωσης για να ενισχύσουν ακραίες φωνές, διαδίδοντας σκέτη προπαγάνδα. Σε κάθε περίπτωση-λέει ο καθηγητής Ροζάντο, οι επιπτώσεις στην κοινωνία των συστημάτων τεχνητής νοημοσύνης που παρουσιάζουν πολιτικές προκαταλήψεις, είναι βαθιές. Τα γλωσσικά μοντέλα που διεκδικούν πολιτική ουδετερότητα και ακρίβεια, ενώ εμφανίζουν πολιτικές προκαταλήψεις, θα πρέπει να αποτελούν πηγή ανησυχίας.