Εξαιρετικά ενδιαφέρουσα η ομιλία του κ. Έκτορα Δελαστίκ για την Τεχνητή Νοημοσύνη στην Εργατική Λέσχη Νέας Ιωνίας-«το υδραγωγείο»
Το βράδυ της Παρασκευής 9 Φεβρουαρίου 2024, πραγματοποιήθηκε στον χώρο της Εργατικής Λέσχη Νέας Ιωνίας Αττικής-«το υδραγωγείο», μια εξαιρετικά ενδιαφέρουσα ομιλία-συζήτηση, με θέμα την «Τεχνητή νοημοσύνη», με ομιλητή το μέλος του Πανελλαδικού Σωματείου στην Έρευνα και στην Τριτοβάθμια Εκπαίδευση, Αρθρογράφο κ. Έκτορα Δελαστίκ.
Ρεπορτάζ-Φωτογραφίες: Παναγιώτα Σούγια
Την εκδήλωση προλόγισε το μέλος της Εργατικής Λέσχης Νέας Ιωνίας Αττικής-«το υδραγωγείο», κ. Αγγελική Βάσιλα, λέγοντας, μεταξύ άλλων, πως: «Σας καλωσορίζουμε όλες και όλους στη σημερινή μας εκδήλωση, με τον Έκτορα Δελαστίκ. Γνωστός, κατ’ αρχάς, σε μας, στην Εργατική Λέσχη της Νέας Ιωνίας, γιατί ήταν εθελοντής χρόνια και έκανε μαθήματα σε παιδιά Λυκείου. Σήμερα, όμως, έχει έρθει και με την ιδιότητα του ερευνητή, μέλους του Πανελλήνιου Σωματείου στην Έρευνα και στην Τριτοβάθμια Εκπαίδευση και αρθρογράφου, και θα μιλήσουμε για την Τεχνητή Νοημοσύνη. Η Τεχνητή Νοημοσύνη είναι ένα θέμα που αρχικά έχει μπει στη ζωή μας τα τελευταία χρόνια, και είναι μία αρκετά παλιά ιστορία.», αναφέρθηκε στο γενικό πλαίσιο της ανάπτυξης του θέματος και ακόμη ανέφερε πως: «Αυτή η εκδήλωση είναι στο πλαίσιο των εκδηλώσεων, που κάνουμε ως Λέσχη, που προσπαθούμε να καταπιαστούμε με μια σειρά ζητήματα και κοινωνικά και επιστημονικά και σύγχρονα. Και είναι μία από τις εκδηλώσεις, που πιστεύουμε ότι έχουν πάρα πολύ μεγάλο ενδιαφέρον.».

Αναλυτικότερα, ο κ. Έκτορας Δελαστίκ ανέφερε εισαγωγικά πως: «Η ουσία της συζήτησης είναι σε πολλά επίπεδα. Το πρώτο και κύριο, όμως, είναι ότι κανείς δεν έχει την υποχρέωση να ξέρει εκ των προτέρων βαθιά την τακτική μας. Οπότε, και από πλευράς του Σωματείου των Ερευνητών, θεωρώ πως είναι πολύ βασικό να ενημερωθεί το κοινό. Να μπορεί ο κόσμος που έχει έρθει εδώ να μην είναι χαμένος με τις τεχνικές λεπτομέρειες, αλλά να μπορεί να συζητήσει ένα τέτοιο θέμα επί της ουσίας.» και συνεχίζοντας ανέφερε μεταξύ άλλων πως: «Η συζήτηση και ο στοχασμός πάνω στην Τεχνητή Νοημοσύνη είναι πολύ παλαιότερα από τα «φιλοσοφικά ζόμπι» του 1970 και παλαιότερη από τις αναφορές της επιστημονικής φαντασίας (η οποία μας έδωσε τον όρο «ρομπότ», από τον τσέχικο όρο για τη σκληρή εργασία ή υπηρεσία). Μια από τις πρώτες σχετικές αναφορές αποτελεί η συζήτηση περί «Γκόλεμ» στο Ταλμούδ, η οποία τροφοδότησε ένα μέρος της μεσαιωνικής και ύστερης μεσαιωνικής φαντασίας, ειδικά προς Τσεχία και Πολωνία. Σε όλη αυτή τη διαδρομή, ο «ρεαλιστικός» στόχος ήταν η δημιουργία ενός όντος, ικανού να παίρνει μια σειρά απλών και σχετικά περίπλοκων αποφάσεων, και από αυτό το σημείο και μετά ξεκινούσε κυρίως συζήτηση περί συνείδησης και ηθικών διλημμάτων. Είναι η συζήτηση περί συστημάτων Τεχνητής Νοημοσύνης το σύγχρονο Γκόλεμ;».

Ακολούθως, ο κ. Δελαστίκ εξήγησε με απλά και κατανοητά λόγια τι είναι η Τεχνητή Νοημοσύνη, λέγοντας πως: «Κατ’ αρχάς, θα ξεκινήσουμε με μια ψύχραιμη τοποθέτηση: Δεν υπάρχει Τεχνητή Νοημοσύνη. Με αυτό δεν αναφερόμαστε σε μια αξιολογική κρίση, σε μια συζήτηση τύπου «τα συστήματα που υπάρχουν δεν έχουν τις δυνατότητες που θα θέλαμε». Αναφερόμαστε πολύ συγκεκριμένα στο γεγονός ότι ως «Τεχνητή Νοημοσύνη» αναφέρονται πολύ διαφορετικά μεταξύ τους συστήματα, όχι ως γενικό φιλοσοφικό ρεύμα ή ένα ευρύτατο πεδίο, αλλά ως συγκεκριμένο εργαλείο. Με άλλα λόγια, αν ερχόταν στον χώρο δουλειάς σας μια εταιρεία και σας πρότεινε: «Μπορώ να λύσω τα προβλήματά σας χρησιμοποιώντας… μαθηματικά.», μάλλον, θα υποθέτατε αμέσως πως έχετε να κάνετε με κάποια απάτη και, ίσως, έχει πλάκα να μάθετε ακριβώς ποια είναι αυτή. Ας κάνουμε ακριβώς αυτό, λοιπόν.
Θα αγνοήσουμε γι’ αυτή τη συζήτηση την κάπως πολυδαίδαλη και χαοτική διαδρομή, που μας έφερε μέχρις εδώ, και θα επικεντρωθούμε στο πολύ άμεσο παρελθόν και στο παρόν. Οι διάφορες παραλλαγές αυτών των συστημάτων μπορούν να χωριστούν σε τρεις βασικές κατηγορίες:
Η πρώτη οικογένεια αφορά το να προγραμματίσουμε εξ’ ολοκλήρου το πώς θα διαχειριστεί ο υπολογιστής τα διαθέσιμα στοιχεία. Στον πυρήνα του δεν πρόκειται παρά για υψηλού επιπέδου και περιπλοκότητας προγραμματισμό, όπως κάθε άλλο. Πράγμα που, φυσικά, σημαίνει πως το αποτέλεσμα μπορεί να μοιάζει «έξυπνο» μέχρι να αγγίξουμε περιπτώσεις που έχουν αγνοηθεί από την ομάδα προγραμματισμού, όπου καταρρέει. Οι διαφημίσεις αυτο-οδηγούμενων αυτοκινήτων αναφέρονται σε τέτοια συστήματα. Εάν έχετε παίξει παιχνίδια ενός παίκτη σε κονσόλα ή υπολογιστή σίγουρα έχετε μάθει να εκμεταλλεύεστε ακριβώς αυτές τις προγραμματιστικές «τρύπες» για να κερδίζετε. Αυτό που θα ήθελα να κρατήσετε είναι πως αυτή η κατηγορία είναι προβλέψιμη στα αποτελέσματά της, ακόμη και όταν μιλάμε για συστήματα «fuzzy logic.».
Η δεύτερη οικογένεια αφορά αυτό που σήμερα ονομάζουμε «συστήματα μηχανικής μάθησης». Σε αυτήν την κατηγορία το σύστημα ξεκινά με μια σειρά στοιχείων, που θα μπορούσαν να είναι σημαντικά για τις αποφάσεις που θέλουμε να παίρνει. Εν συνεχεία, αποφασίζει ποια από αυτά τα στοιχεία είναι σημαντικά για την απόφαση και πόσο σημαντικά είναι. Σε αυτή την κατηγορία μπορείτε να βρείτε, επί παραδείγματι, το σύστημα βάσει του οποίου σας προτείνει νέο υλικό το Netflix. Από αυτή την κατηγορία θα ήθελα να κρατήσετε πως στο τέλος μας παραδίδεται ένα σαφές σύστημα εξισώσεων, το οποίο εξηγεί ποια είναι η απόφαση που πάρθηκε και με ποιόν τρόπο. Με άλλα λόγια, μπορούμε να τη μελετήσουμε, κατανοήσουμε και κρίνουμε εκ των υστέρων.

Η τρίτη οικογένεια αφορά αυτό που ονομάζουμε «νευρωνικά δίκτυα». Εδώ, συγκεκριμένα σκεφτείτε το «ChatGPT». Σε αυτή την κατηγορία προγραμματίζουμε μια πολύ αφαιρετική αναπαράσταση νευρώνων -σκεφτείτε αφαιρετικούς πίνακες-, τροφοδοτούμε αυτή την αναπαράσταση με δεδομένα και μας τροφοδοτεί με αποφάσεις. Σε αυτή την κατηγορία, μη έχοντας μια σταθερή φυσική θεωρία για την ανθρώπινη νόηση, δεν έχουμε καμία πραγματική εποπτεία του τρόπου με τον οποίο παίρνονται οι αποφάσεις και του τρόπου με τον οποίο «αποθηκεύεται» η εμπειρία του μοντέλου. Μπορούμε μόνο να το «ανακρίνουμε» εκ των υστέρων, ελπίζοντας να ψυχανεμιστούμε τα κριτήρια που έχει μάθει να θεωρεί πιο σημαντικά.
Από την περιγραφή και μόνο είναι εμφανές πως αυτές οι τρεις κατηγορίες συστημάτων είναι θεμελιωδώς διαφορετικές, όσον αφορά στις αρχικές παραδοχές τους, στην εποπτεία της καλής λειτουργίας τους, του τρόπου με τον οποίον παράγουν αποτελέσματα και, κυρίως, του τύπου προβλημάτων, για τα οποία θα ήταν η κάθε μία πιο κατάλληλη.».
Κατόπιν, ο κ. Δελαστίκ αναφέρθηκε στο πώς συζητείται η Τεχνητή Νοημοσύνη, επισημαίνοντας πως: «Γίνεται, λοιπόν, ακόμη πιο σημαντικός ο τρόπος που καλύπτονται κάτω από τον ίδιο όρο -Τεχνητή Νοημοσύνη- στην ειδησεογραφία. Όχι μόνον επειδή μπορεί να δημιουργείται μια παραπλανητική εικόνα σε όλους μας ως πολίτες, αλλά και επειδή ένα μέρος αυτής της ειδησεογραφίας απευθύνεται συγκεκριμένα στους ανθρώπους που κρατούν τα ηνία της οικονομίας.

Η εικόνα που έχει κάθε λογικός άνθρωπος είναι η εικόνα ενός επιτελείου συμβούλων με αποκλειστική δουλειά τη σύνταξη εκθέσεων για την καταλληλότητα της επένδυσης σε διάφορες επιχειρήσεις, τεχνοβλαστούς, νέες τεχνολογίες και χρηματοπιστωτικά προϊόντα. Ένας πολύ διασκεδαστικός τρόπος να σπάσει αυτή η φούσκα αισιοδοξίας είναι το βιβλίο του Martin Suter, ονόματι «Business Class», το οποίο δίνει μια εξαιρετική εκ των ένδον εικόνα του πώς λειτουργούν τα πρόσωπα του υψηλού επιχειρηματικού κόσμου (ή έστω την εξευγενισμένη εκδοχή τους το 2000). Ένας, ίσως, λιγότερο διασκεδαστικός τρόπος είναι το να θυμηθούμε τον «πυρετό του κρυπτονομίσματος» με το Bitcoin και αντίστοιχα προϊόντα.
Η τεχνολογία πάνω στην οποία όλα τους βασίζονταν λέγεται «blockchain» – ο τρόπος με τον οποίο λειτουργεί δεν είναι του παρόντος όσο είναι το όνομά της. Σε άρθρο του, το πρακτορείο ειδήσεων «Reuters», το 2018, παρουσίαζε έναν ορυμαγδό επιχειρήσεων, που άλλαζαν το όνομά τους, ώστε να περιέχει τη λέξη «blockchain», επενδύοντας στο ότι θα ανέβει η τιμή της μετοχής τους επειδή οι διάφοροι χρυσοπληρωμένοι υπάλληλοι επί χρηματιστηριακών ζητημάτων θα τις έβαζαν σε προνομιακά πακέτα, απευθυνόμενα σε επιχειρηματίες, που κινητοποιούνταν από το ίδιο το άκουσμα της λέξης. Μια εταιρεία δίχως έσοδα, ονόματι «Stapleton Capital», μετονομάζεται σε «Blockchain Worldwide» και διπλασιάζει τη μετοχή της -και ήταν από τις σχετικά αποτυχημένες τέτοιες κινήσεις, καθώς κατά μέσο όρο η μετοχή μετά από μια τέτοια κίνηση τριπλασιαζόταν. Πιστεύετε πως αυτό ήταν το πιο γελοίο παράδειγμα; Η γνωστή και σχετικά αγαπημένη «Long Island Iced Tea Corp.» -το γνωστό μας Iced Tea- μετονομάστηκε σε «Long Blockchain Corp.», κερδίζοντας αύξηση 380% για την τιμή της μετοχής της και κατηγορίες για απάτη από το Χρηματιστήριο Nasdaq. Δεν επρόκειτο καν για νέου τύπου απάτη, καθώς το ίδιο φαινόμενο είχε λάβει χώρα στα τέλη της δεκαετίας του ’90, με το λεγόμενο «dot-com boom».

Αυτή η αναδρομή γίνεται επειδή βλέπουμε όχι συγκεκριμένα ένα ανάλογο σπεκουλάρισμα, αλλά μια ανάλογα κερδοσκοπική δημοσιογραφική κάλυψη της συζήτησης περί Τεχνητής Νοημοσύνης. Δεν μπορούμε να μπούμε στο μυαλό κάθε αρθρογράφου και να έχουμε εποπτεία του κατά πόσο πιστεύει ό,τι γράφει, κατά πόσο θέλει να εντυπωσιάσει τον Διευθυντή, ώστε να δημοσιευτεί το άρθρο, ή κατά πόσο θέλει να σπεκουλάρει και προσωπικά στο χρηματιστηριακό παιχνίδι που γίνεται. Μερικές φορές, βέβαια, μπορούμε, όπως συμβαίνει με τα άρθρα του Vinod Khosla, στα οποία το 2012 προέβλεπε πως στο όχι πολύ μακρινό μέλλον το 80% των γιατρών και το 80% των εκπαιδευτικών θα αντικαθίστατο από συστήματα μηχανικής μάθησης. Φυσικά, ο Vinod Khosla είναι ιδρυτής της ομώνυμης επενδυτικής εταιρείας και αυτοσυστήνεται ως «θρυλική μορφή στον χώρο των επενδύσεων της Silicon Valley». Δεν πρέπει να ξεχνάμε πως ένα σημαντικό μέρος του πυρετού χρηματοδοτήσεων και εταιρικών κινήσεων περί Τεχνητής Νοημοσύνης κινείται από τέτοιου τύπου άρθρα, που τα διαβάζουν τέτοιου τύπου άνθρωποι.
Από πλευράς των ανθρώπων, οι οποίοι πράγματι δουλεύουν σε αυτόν τον τομέα, κανείς δεν τολμά να κάνει προβλέψεις για τον αριθμό των θέσεων εργασίας, ούτε καν για τους τομείς εργασίας, στους οποίους θα υπάρξει πραγματική αντικατάσταση θέσεων εργασίας λόγω εισαγωγής τεχνολογιών που προαναφέραμε. Μπορούμε, όμως, από πρώτες αρχές να κάνουμε κάποιες διστακτικές και προσεκτικές εκτιμήσεις.».

Επίσης, ο κ. Δελαστίκ αναφέρθηκε και στο πως θα δούμε την Τεχνητή Νοημοσύνη ανάμεσά μας, λέγοντας πως: «Για να μπορέσουμε να εκτιμήσουμε την κατάσταση πρέπει να ξεκινήσουμε από τα χαρακτηριστικά αυτού του εργαλείου. Πρώτα απ’ όλα, η υποδομή που αφορά τα «έξυπνα συστήματα», αυτά στα οποία έχουμε επί της ουσίας προγραμματίσει τον τρόπο λειτουργίας τους, δεν διαφέρει ποιοτικά από τη σύγχρονη πορεία του προγραμματισμού. Το σημαντικό στοιχείο είναι πως δημιουργούνται γλώσσες προγραμματισμού και τεχνικές, που επιτρέπουν όλο και πιο αφαιρετική περιγραφή των προβλημάτων, άρα και όλο πιο γενικές λύσεις. Στην ουσία τους, όμως, παραμένουν απολύτως περιορισμένα από την ανθρώπινη ευφυία και την ανθρώπινη εργατική δύναμη, που ξοδεύεται πάνω στο κάθε συγκεκριμένο πρόβλημα. Και ευπαθή στις όποιες «οικονομίες» γίνουν πάνω σε κάποιο από τα δύο, όπως δείχνει η πορεία των αυτο-οδηγούμενων αμαξιών.
Σε αυτό το σημείο θα μελετήσουμε τα συστήματα μηχανικής μάθησης και τα νευρωνικά δίκτυα μαζί, για δύο πολύ συγκεκριμένους λόγους. Πρώτον, επειδή και τα δύο έχουν τη δυνατότητα να χρησιμοποιηθούν για την αντιμετώπιση προβλημάτων πολύ ευρύτερων από το εύρος του κόπου δημιουργίας τους. Δεύτερον, επειδή και τα δύο έχουν μια τεράστια εξάρτηση από τα δεδομένα, τα οποία τους παρέχονται, και η υφή αυτών των δεδομένων αποτελεί το άλφα και το ωμέγα της συζήτησης.
Με αυτό εννοούμε το εξής: οι μέθοδοι αυτοί μπορούν να λειτουργήσουν, όπως λέμε στην ορολογία, «χωρίς επίβλεψη», με «μερική επίβλεψη» και «με επίβλεψη». Εδώ, η λέξη «επίβλεψη» αναφέρεται, κυρίως, στο κατά πόσο ένας άνθρωπος θα κατηγοριοποιήσει τα δεδομένα ή και τα αποτελέσματα. Δηλαδή, όταν μιλούμε για ένα σύστημα «χωρίς επίβλεψη», το αφήνουμε λυτό στα δεδομένα και ευχόμαστε τα αποτελέσματα που θα βγάλει να βγάζουν νόημα όταν μετά θα τα μελετήσουμε. Στην άλλη άκρη, ένα σύστημα «με επίβλεψη» προαπαιτεί το σύνολο των δεδομένων, τα οποία θα του χορηγήσουμε να είναι μελετημένα και με σαφείς ταμπέλες, προετοιμασμένες από άνθρωπο, ώστε να καθοδηγηθεί σωστά στο να βρει τις σχέσεις που μας ενδιαφέρουν. Εδώ αναδεικνύονται τα δύο πιο σημαντικά χαρακτηριστικά, τα οποία καθορίζουν τη συζήτησή μας.

Το πρώτο είναι η εξαιρετικά δαπανηρή σε εργατοώρες συγκέντρωση, οργάνωση, αξιολόγηση και κατηγοριοποίηση των αρχικών δεδομένων, τα οποία χρησιμοποιούνται για την εκπαίδευση του αλγορίθμου. Και εδώ συμβαίνει αυτό ακριβώς που φαντάζεστε: η «OpenAI» (η εταιρία του «ChatGPT»), σύμφωνα με έρευνα του περιοδικού «Time», έδωσε υπεργολαβία σε εταιρεία στην Κένυα τη δημιουργία ενός υψηλής σημασίας μέρους της υποδομής της, ώστε να τη φέρει σε πέρας, πληρώνοντας ωρομίσθιο κάτω των 2 δολαρίων. Εάν κάνετε μια μικρή έρευνα για τέτοιες υπεργολαβίες θα διαπιστώσετε και εσείς σε ελάχιστα λεπτά την ευκολία με την οποία τέτοιες υπηρεσίες θα βρεθούν στην Ινδία και στο Βιετνάμ για τον ίδιο λόγο. Αυτή η πλευρά της οικονομίας της πληροφορίας θα βρίσκεται σε ανάπτυξη ευθέως ανάλογη με το μέγεθος της πραγματικής αγοράς συστημάτων μηχανικής μάθησης και νευρωνικών δικτύων, καθώς τα σχετικά «data sets» είναι αυτονόητο πως πρέπει να ανανεώνονται και να διανθίζονται με νέα γνώση. Ανοίγουν, επίσης, ζητήματα για την πνευματική ιδιοκτησία, που θα αναφέρουμε παρακάτω.
Το δεύτερο χαρακτηριστικό τυγχάνει να πηγάζει και αυτό άμεσα από την ίδια έρευνα του «Time»: το σύστημα που επιμελήθηκαν οι Κενυάτες εργαζόμενοι ήταν ένα αυτόματο σύστημα, το οποίο «έκοβε» τις βαθιά ρατσιστικές, σεξιστικές, βίαιες και εν γένει παρενοχλητικές απαντήσεις του «ChatGPT» πριν τις δούμε, ώστε να το κάνει αρκετά εύγευστο για επαφή με το ευρύ κοινό. Σημαίνει αυτό πως το σύστημα ήταν εγγενώς «αυτός ο θείος στο τραπέζι, που όταν μιλάει κάνουμε πως δεν υπάρχει»; Σαφώς όχι, αλλά αυτές οι συμπεριφορές είναι πάρα πολύ συχνές στον χώρο των νευρωνικών δικτύων, που παράγουν κείμενο, για δύο πολύ συγκεκριμένους λόγους. Πρώτον, για λόγους κόστους, τα δεδομένα εκπαίδευσης ήταν εν πολλοίς τεράστιοι όγκοι δεδομένων ελεύθερου κειμένου, που κυκλοφορούν στο διαδίκτυο, και οι οποίοι, φυσικά, και περιέχουν και τη χειρότερη πλευρά της ανθρώπινης συμπεριφοράς, αυτή που νιώθουμε άνετα να εκφράσουμε μόνο με όρους ανωνυμίας. Δεύτερον, τα συστήματα αυτά επί της ουσίας κολυμπούν στα δεδομένα και «ενσωματώνουν» συνήθειες και αντανακλαστικά που συναντούν. Σε αυτό το πλαίσιο, ο ακροδεξιός και ο φασιστικός τρόπος έκφρασης τυγχάνει προνομιακής μεταχείρισης. Καθώς χαρακτηρίζεται από λέξεις-κλειδιά, που αναπαράγονται αυτούσιες, ταυτόχρονη παράθεση των ίδιων εννοιών και ας μη συνδέονται (π.χ. υπογεννητικότητα-μετανάστευση) και από πάρα πολύ έντονη επαναληπτικότητα και εσωτερική αναπαραγωγή, είναι πολύ πιο αποτελεσματικός στο να δημιουργεί συνήθειες σε ένα αυτόματο σύστημα παραγωγής γλώσσας από ένα εμπεριστατωμένο κείμενο της ίδιας ιδεολογικής υφής. Θα μπορούσατε να πείτε πως είναι ένα σύγχρονο πείραμα, που αποδεικνύει πως η φασίζουσα ρητορεία είναι κιμαδομηχανή του μυαλού. Ίσως, θυμάστε τις 23 Μαρτίου 2016, όπου η «Microsoft» έκανε δημοσίως προσβάσιμο ένα τέτοιο σύστημα, δίνοντάς του πρόσβαση στο «Twitter», ώστε να συνομιλήσει με το κοινό μέσω του λογαριασμού «TayandYou». Σε περίπου 16 ώρες το έκλεισαν, καθώς ήδη είχε μάθει να εκφράζει άρνηση στο ολοκαύτωμα, στήριξη προς πολιτικές γενοκτονίας και επιθετικότητα προς γυναίκες και μειονότητες.

Έχουμε επεκταθεί πολύ εδώ, αλλά αξίζει ένα τελευταίο παράδειγμα: το 2020, μια ομάδα μαθηματικών και μια εταιρεία δημοσίευσαν ανοικτή επιστολή, με την οποία καλούσαν τους μαθηματικούς των Η.Π.Α. να διακόψουν τη συνεργασία τους με αστυνομικά τμήματα. Πρόκειται για την εποχή που εν μέσω των γιγάντιων διαδηλώσεων για τη φυλετικότητα της αστυνομικής βίας γινόταν (και γίνεται) μια τεράστια διαφημιστική εκστρατεία προς αστυνομικά τμήματα για την αγορά συστημάτων μηχανικής μάθησης. Οι υπηρεσίες είναι κατά βάση η υπόσχεση πως αυτά τα συστήματα θα υπολογίζουν αυτόματα την ανάγκη για περιπολίες, ή την επικινδυνότητα συγκεκριμένων περιοχών προσώπων ή περιστατικών, ή πως θα «σκανάρουν» αυτόματα δεδομένα παρακολούθησης και θα ειδοποιούν τις αστυνομικές αρχές. Πράγμα που σε μια χώρα σαν τις Η.Π.Α. σημαίνει πως αλγόριθμοι θα εκπαιδεύονται πάνω σε ρατσιστικά και ταξικά δεδομένα, ώστε να παράξουν ρατσιστικές και ταξικές προτάσεις αστυνόμευσης, αλλά προστατεύοντας πλέον τους διευθυντές, οι οποίοι θα μπορούν να πουν «φταίει ο αλγόριθμος άρα δε φταίει κανένας».».

Στη συνέχεια, ο κ. Δελαστίκ αναφέρθηκε στο ζήτημα της χρήσης της Τεχνητής Νοημοσύνης, αναφέροντας πως: «Αυτό το σημείο μας φέρνει στο δεύτερο μέρος του «πώς θα δούμε τα συστήματα αυτά ανάμεσά μας». Όπως έχετε παρατηρήσει, οι τεχνολογίες αυτές έχουν τρία ιδιαίτερα χαρακτηριστικά: φουτουριστική, περίπλοκη αργκό, δικαιολογία για προτάσεις κατάργησης θέσεων εργασίας και αποφυγή ευθυνών για τις αποφάσεις που παίρνουν. Με άλλα λόγια, το υγρό όνειρο του μέσου «golden boy». Πράγμα που σημαίνει πως τα άρθρα, οι έρευνες, οι προτάσεις χρηματοδότησης και οι δικαστικές αποφάσεις θα αποτυπώνουν αυτή τη νοοτροπία προς τέρψιν αυτού του κοινού.
Η πιο απτή τέτοια εξέλιξη του τελευταίου μήνα είναι η πρώτη δικαστική νίκη της «Tesla» για τον θάνατο οδηγού το 2019. Το αυτοκίνητο διαφημιζόταν ως έχον λειτουργίες «αυτόματου πιλότου» και «πλήρως αυτο-οδηγούμενο», αλλά η εταιρεία επιμένει πως πρέπει να είναι ελεύθερη ταυτόχρονα να χρησιμοποιεί αυτούς τους όρους και να είναι ελεύθερη από κάθε νομική ευθύνη αποφάσεων του λογισμικού της.
Αυτή η συζήτηση δεν αφορά μόνο το τελικό προϊόν, αλλά και τα αρχικά δεδομένα. Όπως θυμάστε, αρκετά συχνά τα δεδομένα εκπαίδευσης αποκτώνται από το διαδίκτυο. Ειδικά στην περίπτωση των προγραμμάτων δημιουργίας εικόνων, υπάρχουν πάρα πολλές καταγγελίες καλλιτεχνών πως φαίνεται να έχουν χρησιμοποιηθεί έργα τους χωρίς συγκατάθεση, αναφορά και αποζημίωση. Εδώ και έναν μήνα βρίσκεται υπό διαδικασία κρίσης μια δημοσίευση του εργαλείου «Nightshade», το οποίο μεταβάλλει μερικά «pixel» μιας εικόνας πριν την ανεβάσει κανείς στο διαδίκτυο, ώστε χωρίς καμία μεταβολή για το ανθρώπινο μάτι, αν κάποια εταιρεία χρησιμοποιήσει αρκετές «μολυσμένες» εικόνες χωρίς την άδεια των καλλιτεχνών, να παράγει λανθασμένα ή ακαταλαβίστικα αποτελέσματα.», ενώ ολοκληρώνοντας την εισήγησή του τόνισε πως: «Μέσα από όλη αυτή την εξιστόρηση καταλήγουμε σε κάποια βασικά συμπεράσματα, που αξίζει να κουβαλάμε το επόμενο διάστημα στο μυαλό μας.
Κατ’ αρχάς, η ανεύθυνη δημοσιογραφική κάλυψη είναι πολύ εύκολα αναγνωρίσιμη: εξαιρετικά αισιόδοξα άρθρα, που δε δίνουν καμία βάση για τα συμπεράσματά τους, προβλέψεις για αριθμούς θέσεων εργασίας, που θα αντικατασταθούν από αυτοματοποιημένα συστήματα, και, φυσικά, άρθρα που συνδέονται άμεσα με το επενδυτικό περιβάλλον.
Κατά δεύτερον, η εφαρμογή σε χώρους εργασίας είναι ζήτημα διελκυστίνδας: υπάρχει μια υπερπροσφορά εταιρειών, που υπόσχονται λαγούς με «A.I.-πετραχήλια», οι οποίες προσπαθούν επιθετικά να πουλήσουν υπηρεσίες αμφιβόλου ποιότητας. Χρειάζεται ειδική γνώση και ουσιαστική αποδεικτική διαδικασία για να πούμε πως μια τέτοια υπηρεσία είναι όντως καλύτερη από έναν πιο αναλογικό τρόπο και όχι κερδοσκοπικός φετιχισμός, ο οποίος όπως είδαμε μπορεί εύκολα να είναι επικίνδυνος.
Κατά τρίτον, συγκεκριμένα από τους παραγωγούς κειμένου κινδυνεύουν πραγματικά μόνον κειμενογράφοι τύπου «γραφειοκράτες της Ε.Ε.», καθώς κάθε κείμενο που φιλοδοξεί να έχει συνοχή και να αποτελείται από κάτι περισσότερο από λέξεις-κλειδιά και συνδετικές φράσεις, δεν μπορεί εξ΄ ορισμού να δημιουργηθεί με τέτοια εργαλεία.
Κατά τέταρτον, κάτι που αλλάζει άμεσα είναι η διαδικασία της πρόσληψης σε μεγάλες επιχειρήσεις. Μεγάλες εταιρείες, κυρίως στο εξωτερικό μέχρι στιγμής, καταφεύγουν συχνά σε εφαρμογές τύπων που έχουμε συζητήσει, ώστε να «ξεσκαρτάρουν» τα βιογραφικά πριν τα δει ανθρώπινο μάτι. Δημιουργείται έτσι μια δυναμική, κατά την οποία ηλεκτρονικές εφαρμογές επιμελούνται βιογραφικά, ώστε να είναι πιο «ελκυστικά» προς τις, επίσης, ηλεκτρονικές εφαρμογές, οι οποίες θα τα διαβάσουν.
Κατά πέμπτον, οι εφαρμογές μηχανικής μάθησης και νευρωνικών δικτύων, αυτό στο οποίο είναι εξαιρετικές είναι το να μαθαίνουν και να αναπαράγουν συνήθειες και διαχωρισμούς των ανθρώπων που τις χειρίζονται. Πράγμα που σημαίνει πως η συνύπαρξη μαζί τους αφορά στην εκμάθηση μιας εργασίας και στην επιβλεπόμενη αναπαραγωγή της σε μεγάλη κλίμακα και όγκο δεδομένων. Κατ’ αναλογία με τις μηχανές αναζήτησης, αυτό που χρειάζεται να αναπτυχθεί ως ικανότητα είναι η εξοικείωση με τις δυνατότητες, τις αδυναμίες και τις ιδιομορφίες αυτών των συστημάτων, ώστε να χρησιμοποιούνται ως επέκταση του ανθρώπινου μυαλού.».

Αμέσως μετά την ολοκλήρωση της εισήγησής του, ο κ. Έκτορας Δελαστίκ δέχτηκε επίκαιρες ερωτήσεις από το κοινό, στις οποίες απάντησε, κάνοντας και έναν ουσιαστικό διάλογο με τους ερωτώντες.
