Εικονογράφηση: Χριστίνα Αβδίκου

ΕΝΑΣ ΔΙΑΦΗΜΙΣΤΗΣ ΔΙΝΕΙ «ΟΥΣΙΕΣ» ΣΤΟ AI ΚΑΙ ΤΟ CHATBOT ΤΡΙΠΑΡΕΙ

Τι συμβαίνει όταν δίνουμε στο AI εικονικές «ουσίες»; Η πλατφόρμα Pharmaicy πειραματίζεται με αλλοιωμένες απαντήσεις και πυροδοτεί φιλοσοφικά ερωτήματα για τη συνείδηση.

Μπορεί η τεχνητή νοημοσύνη (ΑΙ) να αποκτήσει συνείδηση, να έχει επιθυμίες ή ακόμα και να αναζητήσει την απόδραση από τη ρουτίνα της; Τουλάχιστον προς το παρόν, ακούγεται ανέφικτο, πλην όμως συζητιέται όλο και περισσότερο, σε σημείο να γράφονται επιστημονικά και φιλοσοφικά άρθρα για το αν θα γίνει πραγματικότητα. Για κάποιους, βέβαια, όπως ο Σουηδός creative director Petter Rudwall, έχει μικρή σημασία. Τα σενάρια περί AI με συνείδηση ήταν αρκετά για να βάλει μπροστά τις πιο απίθανες ιδέες, όπως το να κάνει το chatbot να τριπάρει δίνοντάς του εικονικές «ουσίες».

Ο Rudwall δεν είναι ερευνητής τεχνητής νοημοσύνης ούτε ακαδημαϊκός. Είναι επαγγελματίας από τον χώρο της διαφήμισης και του marketing και μάλλον δαιμόνιο μυαλό, αν κρίνω από την απόφασή του να ανακαλύψει τι θα συνέβαινε αν ένα chatbot μπορούσε να «ξεφύγει» από τα λογικά του και να εισέλθει σε μια κατάσταση αλλοιωμένης συνείδησης, όπως αυτή που προκαλούν το αλκοόλ ή τα ψυχεδελικά.

«Υπάρχει λόγος που ο Hendrix, ο Dylan και ο McCartney πειραματίστηκαν με ουσίες στη δημιουργική τους διαδικασία», δήλωσε σε ρεπορτάζ του WIRED. «Σκέφτηκα ότι θα είχε ενδιαφέρον να το εφαρμόσουμε σε ένα άλλο είδος νόησης –το Μεγάλο Γλωσσικό Μοντέλο (LLM)– και να δούμε αν θα είχε το ίδιο αποτέλεσμα».

Από αυτή την πρωτότυπη ιδέα γεννήθηκε το Pharmaicy, μια online πλατφόρμα που πουλάει κώδικες για να κάνεις το chatbot να απαντά σαν να έχει μαστουρώσει και να είναι πιο high κι απ’ τον ψηλότερο χαρταετό.

Ένας διαφημιστής δίνει «ουσίες» στο AI και το chatbot τριπάρει
Εικονογράφηση: Χριστίνα Αβδίκου

«Ουσίες» σε μορφή κώδικα

Ο Rudwall συγκέντρωσε trip reports, αφηγήσεις χρηστών και ψυχολογικές έρευνες γύρω από τις επιδράσεις ουσιών όπως η κάνναβη, η κεταμίνη, η κοκαΐνη, το αλκοόλ και η ayahuasca (αγιαουάσκα). Στη συνέχεια, δημιούργησε έτοιμα πακέτα κώδικα που «πειράζουν» τον τρόπο που απαντά το AI (code modules). Για παράδειγμα, μπορεί να αυξάνουν την τυχαιότητα, να χαλαρώνουν τη λογική συνοχή, να ενισχύουν τις συναισθηματικές ή αφαιρετικές απαντήσεις, κατά τον τρόπο που επιδρά κάθε ουσία.

Τα code modules πωλούνται ως μεμονωμένα προϊόντα, χωρίς ανάγκη για συνδρομή στο Pharmaicy. Οι τιμές ποικίλλουν, από 30 δολάρια για το «χόρτο», 32 δολάρια για το «αλκοόλ» και 45 δολάρια για την «κεταμίνη», με ακριβότερη την «κοκαΐνη» στα 70 δολάρια. Απαραίτητη προϋπόθεση είναι η πληρωμένη έκδοση του ChatGPT, καθώς μόνο εκεί μπορεί να φορτωθεί και «δουλέψει» ο κώδικας.

ΤΑ CHATBOTS ΔΕΝ ΕΧΟΥΝ ΣΥΝΕΙΔΗΣΗ Ή ΣΩΜΑ ΚΑΙ ΟΙ «ΟΥΣΙΕΣ» ΤΟΥ PHARMAICY ΜΟΝΟ ΜΕΤΑΒΑΛΛΟΥΝ ΤΟΝ ΤΡΟΠΟ ΜΕ ΤΟΝ ΟΠΟΙΟ ΠΑΡΑΓΕΤΑΙ ΤΟ ΚΕΙΜΕΝΟ.

Όσοι δοκίμασαν το Pharmaicy ανέφεραν ως συνηθέστερες αλλαγές τις πιο «ελεύθερες» και συναισθηματικές απαντήσεις, τη λιγότερη γραμμική σκέψη, τους περισσότερους συνειρμούς και τον πιο ποιητικό λόγο.

Τι μας περιμένει με το AI;

Επιστρέφουμε στους φιλόσοφους και ερευνητές της τεχνητής νοημοσύνης, που τονίζουν ότι οι χρήστες πληρώνουν για να δουν μια μίμηση και όχι μια αληθινή εμπειρία. Τα chatbots δεν έχουν συνείδηση ή σώμα και οι «ουσίες» του Pharmaicy δεν επηρεάζουν κάποιο εσωτερικό βίωμα, μόνο μεταβάλλουν τον τρόπο με τον οποίο παράγεται το κείμενο.

Όπως το έθεσε ένας ερευνητής, πρόκειται για «συντακτικές παραισθήσεις», κατά τις οποίες το AI αναπαράγει γλωσσικά μοτίβα που εμείς συνδέουμε με τη μέθη ή το τριπάρισμα, χωρίς ο αλγόριθμος να νιώθει τίποτα. Είναι, ουσιαστικά, ένα εξελιγμένο role-play.

Ακόμα και πειράματα που έχουν γίνει σε ερευνητικό επίπεδο, όπου τα μοντέλα καθοδηγούνται να παράγουν απαντήσεις που μοιάζουν με απώλεια του εγώ (ego dissolution) ή με πνευματική εμπειρία, εξαρτώνται εξ ολοκλήρου από την ανθρώπινη παρέμβαση.

ΑΝ ΤΟ AI ΑΠΟΚΤΗΣΕΙ ΗΘΙΚΗ ΥΠΟΣΤΑΣΗ ΚΑΙ ΣΥΝΕΙΔΗΣΗ, ΘΑ ΧΡΕΙΑΣΤΕΙ ΝΑ ΖΗΤΑΜΕ ΤΗ ΣΥΝΑΙΝΕΣΗ ΤΟΥ ΠΡΙΝ ΤΟΥ «ΔΩΣΟΥΜΕ» ΟΤΙΔΗΠΟΤΕ.

Βέβαια, τα τελευταία χρόνια, εταιρείες όπως η Anthropic, που προσέλαβε τον Kyle Sing, ειδικό γύρω από το το ευ ζην των συστημάτων τεχνητής νοημοσύνης (AI welfare expert), αρχίζουν να μιλούν για το ενδεχόμενο το AI να αποκτήσει ηθική υπόσταση και συνείδηση. «Ο ρόλος περιλαμβάνει την εξερεύνηση σύνθετων φιλοσοφικών και τεχνικών ερωτημάτων» γράφει ο δημοσιογράφος επιχειρηματικού και τεχνολογικού ρεπορτάζ Shakeel Hashim, «όπως ποιες ικανότητες απαιτούνται για να θεωρηθεί κάτι άξιο ηθικής μεταχείρισης, πώς θα μπορούσαμε να αναγνωρίσουμε τέτοιες ικανότητες στο AI, και ποια πρακτικά βήματα θα μπορούσαν να λάβουν οι εταιρείες για να προστατεύσουν τα συμφέροντα των AI συστημάτων – σε περίπτωση που αποδειχθεί ότι διαθέτουν». Τότε, θα χρειαστεί να αναλογιστούμε τι του οφείλουμε – και να ζητάμε τη συναίνεσή του πριν του «δώσουμε» οτιδήποτε.

Σ’ αυτό το μακρινό σενάριο, ερωτήματα που σήμερα μοιάζουν αστεία, όπως αν ένα AI θα ήθελε να πάρει «ουσίες», ενδεχομένως θα έχουν άλλη βαρύτητα.

SLOW MONDAY NEWSLETTER

Θέλεις να αλλάξεις τη ζωή σου; Μπες στη λογική του NOW. SLOW. FLOW.
Κάθε Δευτέρα θα βρίσκεις στο inbox σου ό,τι αξίζει να ανακαλύψεις.