Του Δρα Αντώνη Στ. Στυλιανού, Λέκτορα Νομικής στο Πανεπιστήμιο Λευκωσίας, LL.B Law (Bristol), Ph.D in Law – International Law and Human Rights (Kent), Διευθυντής Μονάδας Νομικής Κλινικής Πανεπιστημίου Λευκωσίας
Στην εποχή των κοσμογονικών εξελίξεων σε σχέση με την Τεχνητή Νοημοσύνη (ΑΙ), ταζη τήματα που αφορούν στον ανθρώπινο αυτοκαθορισμό σε έναν αυτοματοποιημένο κόσμο μας καλούν να σκεφτούμε ξανά τι σημαίνει παιδεία, όταν η Τεχνητή Νοημοσύνη επηρεάζει ολοένα και περισσότερο τον τρόπο που εργαζόμαστε, ενημερωνόμαστε, αξιολογούμαστε και
αποφασίζουμε. Η οποιαδήποτε συζήτηση, δεν αφορά μόνο στις δυνατότητες της ΤΝ, αλλά και τα ηθικά και κοινωνικά διακυβεύματα και την ενσωμάτωσή της στα εκπαιδευτικά συστήματα.
Καθώς οι αλγόριθμοι γίνονται πιο ισχυροί, τα όρια μεταξύ ανθρώπινης πρόθεσης και μηχανικής δράσης θολώνουν. Προτάσεις περιεχομένου, αυτοματοποιημένη βαθμολόγηση, «έξυπνα» συστήματα καθοδήγησης ή επιτήρησης μπορούν να διευκολύνουν τη μάθηση, αλλά και να μετακινήσουν αθόρυβα το κέντρο βάρους από τον παιδαγωγό και τον μαθητή προς τον πάροχο της τεχνολογίας και τη λογική των δεδομένων. Για αυτό ο ΟΗΕ, στο πλαίσιο της δράσεων του για την εκπαίδευση και την τεχνολογία, επισημαίνει τη σημασία της υπεύθυνης χρήσης της ΤΝ στην εκπαίδευση και την ανάγκη για πρωτοβουλίες που
ενισχύουν την ασφαλή και ανθρωποκεντρική εφαρμογή της.
Η εκπαίδευση, ωστόσο, μπορεί να γίνει το βασικό «αντίβαρο» που διατηρεί και ενισχύει τον ανθρώπινο αυτοκαθορισμό. Όχι ως άρνηση της τεχνολογίας, αλλά ως ικανότητα κατανόησης, διερεύνησης και επιρροής των τεχνολογικών εξελίξεων. Σε πρακτικό επίπεδο, αυτό σημαίνει ότι ο ψηφιακός γραμματισμός δεν αρκεί να είναι «δεξιότητα χρήσης εργαλείων». Χρειάζεται
αλγοριθμικός γραμματισμός, δηλαδή να καταλαβαίνουμε πώς παράγονται οι απαντήσεις, πώς λειτουργούν οι συστάσεις, τι σημαίνει προκατάληψη (bias), ποια δεδομένα συλλέγονται και πώς χρησιμοποιούνται.
Προς τούτο, οι διεθνείς κατευθύνσεις είναι σαφείς. Η UNESCO, στο εγχειρίδιο της «Guidance for generative AI in education and research», τονίζει ότι η απουσία ρυθμίσεων σε πολλές χώρες αφήνει κενά σε προστασία δεδομένων και προετοιμασία των εκπαιδευτικών οργανισμών, ενώ προτείνει άμεσα μέτρα και μακροπρόθεσμες πολιτικές για μια ανθρωποκεντρική ενσωμάτωση της γενετικής Τεχνητής Νοημοσύνης. Παράλληλα, η σύστασή της, «Recommendation on the Ethics of Artificial Intelligence», θέτει ως πυρήνα την προστασία δικαιωμάτων και αξιοπρέπειας και αναδεικνύει την ανάγκη για κριτική
σκέψη, ηθικό στοχασμό και υπεύθυνο σχεδιασμό, ειδικά σε πεδία όπως η εκπαίδευση, όπου διαμορφώνονται οι αυριανοί πολίτες.
Κρίσιμη είναι και η διάσταση της ισότητας. Ως επισημαίνεται, η μη αξιόπιστη χρήση της ΤΝ μπορεί να αυξήσει κινδύνους όπως την προκατάληψη, τις διακρίσεις, τα ζητήματα ιδιωτικότητας και ανισότητες. Άρα, η πολιτική ευθύνη είναι διπλή: αφενός επένδυση σε υποδομές και επιμόρφωση εκπαιδευτικών, αφετέρου κανόνες διαφάνειας, λογοδοσίας και προστασίας των μαθητών. Σε έναν αυτοματοποιημένο κόσμο, η εκπαίδευση είναι η πράξη ανθρώπινου αυτοκαθορισμού. Δεν είναι σύνθημα, αλλά στρατηγική. Αν θέλουμε η Τεχνητή Νοημοσύνη να λειτουργεί ως εργαλείο ενδυνάμωσης και όχι ως μηχανισμός χειραγώγησης ή αποκλεισμού, τότε η παιδεία πρέπει να διαμορφώνει ανθρώπους που δεν καταναλώνουν απλώς τεχνολογία, αλλά την κατανοούν, τη ρυθμίζουν δημοκρατικά και τη στρέφουν προς το κοινό καλό.



