«Δίνουμε δεδομένα χωρίς να το καταλαβαίνουμε» – Γιατί η τεχνητή νοημοσύνη δεν είναι πάντα ουδέτερη και τι πρέπει να γνωρίζουν οι χρήστες
«Ο αλγόριθμος υποτιμά το γυναικείο φύλο και κάνει έμφυλες διακρίσεις», επισημαίνει η Σταυρούλα Ντόα, ερευνήτρια στο Εργαστήριο Αλληλεπίδρασης Ανθρώπου–Υπολογιστή του ΙΠ–ΙΤΕ, μιλώντας στην εκπομπή «Live με την Αντιγόνη» στον ραδιοφωνικό σταθμό Cretaone 102,3.
«Η σχέση ανθρώπου και τεχνολογίας έχει γίνει πλέον αδιάσπαστο κομμάτι της καθημερινότητας. Από τη στιγμή που πιάνουμε το κινητό τηλέφωνο μέχρι τη χρήση εφαρμογών και ψηφιακών υπηρεσιών, αλληλεπιδρούμε συνεχώς με υπολογιστικά συστήματα».
Η καθημερινή «αλληλεπίδραση» με την τεχνολογία
«Καθημερινά αλληλεπιδρούμε ξεκινώντας από το κινητό. Είναι ένας μικρός υπολογιστής», σημειώνει η κ. Ντοά. Η ίδια εξηγεί ότι η ψηφιακή τεχνολογία δεν επηρεάζει απλώς τη ζωή μας, αλλά συχνά την καθορίζει.
«Η ζωή μας περιστρέφεται γύρω από αυτές τις αλληλεπιδράσεις πλέον με την τεχνολογία. Και όχι μόνο περιστρέφεται, αλλά πολύ συχνά ορίζεται όταν πάρα πολλά πράγματα σήμερα γίνονται ψηφιακά».
Τα δεδομένα που δίνουμε χωρίς να το καταλαβαίνουμε
Κάθε ψηφιακή μας δραστηριότητα αφήνει πίσω της δεδομένα. Από μια αναζήτηση για ταξίδια μέχρι την παρακολούθηση μιας σειράς ή τη χρήση του GPS.
«Για παράδειγμα όταν χρησιμοποιούμε το GPS για να πλοηγηθούμε, δίνουμε δεδομένα. Ζητείται η θέση μας και γίνεται χαρτογράφηση», εξηγεί. Το ίδιο συμβαίνει και με τις πλατφόρμες ψυχαγωγίας.
«Όταν παρακολουθούμε ταινίες σε κάποιο συνδρομητικό πρόγραμμα καταγράφονται οι προτιμήσεις μας ώστε ο αλγόριθμος να μπορεί να μας προτείνει άλλες ταινίες που πιστεύει ότι μας αρέσουν».
Στην πραγματικότητα, όπως επισημαίνει, οι χρήστες εκπαιδεύουν οι ίδιοι τα συστήματα τεχνητής νοημοσύνης.
«Θα πρέπει να είμαστε γνώστες του ότι δίνουμε εκείνη τη στιγμή τα δεδομένα μας και εκπαιδεύουμε τον αλγόριθμο με ό,τι αυτό συνεπάγεται».
Τα δικαιώματα των πολιτών στα προσωπικά δεδομένα
Παρά την τεράστια συλλογή πληροφοριών, σύμφωνα με την κ. Ντοά, οι πολίτες στην Ευρώπη διαθέτουν ισχυρά δικαιώματα προστασίας δεδομένων μέσω του ευρωπαϊκού κανονισμού.
«Σύμφωνα με τον γενικό κανονισμό προστασίας δεδομένων, εμείς οι οποίοι είμαστε οι ιδιοκτήτες των δεδομένων μας προστατευόμαστε», εξηγεί η ερευνήτρια.
Αυτό σημαίνει ότι οι χρήστες μπορούν να γνωρίζουν ποια δεδομένα έχουν συλλεχθεί γι’ αυτούς.
«Μπορούμε να ζητήσουμε από μια υπηρεσία να μας πει ποια είναι τα δεδομένα που έχει συλλέξει για εμάς». Παράλληλα, υπάρχει και το δικαίωμα διαγραφής.
«Έχουμε δικαίωμα να ζητήσουμε να διαγραφούν, να τροποποιηθούν. Αυτά είναι τα δικαιώματα τα οποία παρέχει ο Γενικός Κανονισμός Προστασίας Δεδομένων σε κάθε άνθρωπο και λίγος κόσμος γνωρίζει για αυτά τα δικαιώματα».
Η μεροληψία της τεχνητής νοημοσύνης
Ένα από τα σημαντικότερα ζητήματα που απασχολούν την επιστημονική κοινότητα είναι η μεροληψία των αλγορίθμων. Η κ. Ντοά εξηγεί ότι η τεχνητή νοημοσύνη μπορεί να αναπαράγει κοινωνικές ανισότητες.
«Σίγουρα υπάρχει και έμφυλη διάκριση και μεροληψία όχι μόνο ως προς τις γυναίκες αλλά και προς άλλες κοινωνικές ομάδες».
Η μεροληψία αυτή, όπως αναφέρει, προκύπτει από τρεις βασικούς παράγοντες:
«Ο ένας είναι η μεροληψία στα δεδομένα, δηλαδή τα δεδομένα βάσει των οποίων εκπαιδεύεται ο αλγόριθμος. Ο δεύτερος είναι η μεροληψία στη σχεδίαση και ο τρίτος είναι η μεροληψία στην ίδια την κοινωνία».
Η τεχνητή νοημοσύνη ως εργαλείο – όχι ως απειλή
Παρά τις προκλήσεις, η ερευνήτρια υπογραμμίζει ότι η τεχνητή νοημοσύνη δεν πρέπει να αντιμετωπίζεται με φόβο.
«Η τεχνητή νοημοσύνη θα είναι ένα εργαλείο για όλους μας και ο σκοπός δεν είναι να φοβηθούμε και να μην την χρησιμοποιούμε».
Το ζητούμενο είναι να σχεδιαστεί με τρόπο που να περιλαμβάνει όλους τους χρήστες.
«Ο σκοπός είναι να γίνουν τα κατάλληλα βήματα ώστε να γίνει συμπεριληπτική. Η σχεδίασή της να είναι συμμετοχική, όπου θα συμμετέχουν οι ίδιοι οι χρήστες που λαμβάνουν τις υπηρεσίες της».
Ποιος ευθύνεται όταν αποφασίζει η μηχανή;
Ένα από τα πιο σύνθετα ζητήματα της επόμενης ημέρας είναι το ζήτημα της ευθύνης. Τι συμβαίνει όταν ένας άνθρωπος λαμβάνει μια απόφαση βασισμένος σε πρόταση ενός αλγορίθμου;
«Είναι ένα ζήτημα που χρειάζεται να το διερευνήσουμε. Ποιος έχει την ευθύνη όταν υιοθετεί μια απόφαση που προτείνει η τεχνητή νοημοσύνη».
Η απάντηση, όπως λέει, δεν είναι απλή.
«Από τη μια μεριά είναι ο ίδιος ο χρήστης. Από την άλλη θα πρέπει να είναι υπεύθυνοι και αυτοί που αναπτύσσουν αυτά τα συστήματα».
Σπάζοντας τα στερεότυπα στην επιστήμη
Παρά την ιστορική υποεκπροσώπηση των γυναικών στους τομείς της τεχνολογίας, το εργαστήριο στο οποίο εργάζεται η ίδια αποτελεί μια διαφορετική εικόνα.
«Έχουμε τη χαρά να είμαστε πάρα πολλές γυναίκες, είμαστε ένα εργαστήριο,Ίδρυμα Τεχνολογία και Έρευνας, το οποίο έχει τουλάχιστον ίσο αριθμό γυναικών με ανδρών, μπορεί να είμαστε και λίγο περισσότερες».
Όπως λέει, ακόμη και στον χώρο της υψηλής τεχνολογίας τα στερεότυπα μπορούν να ανατραπούν.
«Έχουμε σπάσει και εμείς το στερεότυπο στο εργαστήριο».


Δημοφιλή
Ηράκλειο: Θλίψη για την οικογένεια Χαιρέτη
22χρονος κατηγορείται ότι σκότωσε τη μητέρα του με 26 μαχαιριές στο στήθος - Αναβιώνει η δίκη στον Βόλο
Έφυγε από τη ζωή πρώην πρόεδρος της ΟΝΝΕΔ
Κρήτη: Η πραγματική «βόμβα» για το νησί δεν είναι ιρανικοί πύραυλοι, έρχεται από τη θάλασσα
ΒΟΑΚ: Όχημα συγκρούστηκε με άλλο που μπήκε στο αντίθετο ρεύμα και εγκατέλειψε το σημείο
Τραγωδία στην Αθήνα: Νεκρός μαθητής από τη Γαλλία σε σχολική εκδρομή
Αναστάτωση στο κέντρο του Ηρακλείου - Ζευγάρι συνελήφθη έξω από γνωστό σούπερ μάρκετ
Πού υπάρχουν καταφύγια στην Ελλάδα - Ποια είναι στην Κρήτη (χάρτης)
ΔΕΔΔΗΕ: Διακοπές ρεύματος σε περιοχές της Κρήτη