Πώς η λήψη μιας προσεκτικής προσέγγισης στην τεχνητή νοημοσύνη μειώνει τα προκατειλημμένα σύνολα δεδομένων

Μεροληπτικά σύνολα δεδομένων και ηθική τεχνητή νοημοσύνη

Οι λύσεις που υποστηρίζουν AI χρειάζονται σύνολα δεδομένων για να είναι αποτελεσματικά. Και η δημιουργία αυτών των συνόλων δεδομένων είναι γεμάτη με ένα άρρητο πρόβλημα προκατάληψης σε συστηματικό επίπεδο. Όλοι οι άνθρωποι υποφέρουν από προκαταλήψεις (τόσο συνειδητές όσο και ασυνείδητες). Οι προκαταλήψεις μπορούν να έχουν οποιαδήποτε μορφή: γεωγραφική, γλωσσική, κοινωνικοοικονομική, σεξιστική και ρατσιστική. Και αυτές οι συστηματικές προκαταλήψεις αναλύονται σε δεδομένα, τα οποία μπορούν να οδηγήσουν σε προϊόντα τεχνητής νοημοσύνης που διαιωνίζουν και μεγεθύνουν την προκατάληψη. Οι οργανισμοί χρειάζονται μια προσεκτική προσέγγιση για να μετριάσουν την προκατάληψη που εισέρχεται στα σύνολα δεδομένων.

Παραδείγματα που απεικονίζουν το πρόβλημα της προκατάληψης

Ένα αξιοσημείωτο παράδειγμα αυτής της μεροληψίας συνόλων δεδομένων που συγκέντρωσε πολύ αρνητικό τύπο εκείνη τη στιγμή ήταν μια λύση ανάγνωσης βιογραφικού που ευνοούσε τους άνδρες υποψήφιους σε σχέση με τις γυναίκες. Αυτό οφείλεται στο γεγονός ότι τα σύνολα δεδομένων του εργαλείου πρόσληψης είχαν αναπτυχθεί χρησιμοποιώντας βιογραφικά από την τελευταία δεκαετία, όταν η πλειοψηφία των αιτούντων ήταν άνδρες. Τα δεδομένα ήταν προκατειλημμένα και τα αποτελέσματα αντικατόπτριζαν αυτή τη μεροληψία. 

Ένα άλλο ευρέως αναφερόμενο παράδειγμα: Στο ετήσιο συνέδριο προγραμματιστών Google I/O, η Google μοιράστηκε μια προεπισκόπηση ενός βοηθητικού εργαλείου δερματολογίας με τεχνητή νοημοσύνη που βοηθά τους ανθρώπους να κατανοήσουν τι συμβαίνει με ζητήματα που σχετίζονται με το δέρμα, τα μαλλιά και τα νύχια τους. Ο βοηθός δερματολογίας υπογραμμίζει τον τρόπο με τον οποίο η τεχνητή νοημοσύνη εξελίσσεται για να βοηθήσει στην υγειονομική περίθαλψη - αλλά ανέδειξε επίσης την πιθανότητα εισροής μεροληψίας στην τεχνητή νοημοσύνη μετά από κριτική ότι το εργαλείο δεν είναι κατάλληλο για έγχρωμους.

Όταν η Google ανακοίνωσε το εργαλείο, η εταιρεία σημείωσε:

Για να βεβαιωθούμε ότι χτίζουμε για όλους, το μοντέλο μας λαμβάνει υπόψη παράγοντες όπως η ηλικία, το φύλο, η φυλή και οι τύποι δέρματος — από χλωμό δέρμα που δεν μαυρίζει έως καφέ δέρμα που σπάνια καίγεται.

Google, Χρησιμοποιώντας AI για να βρείτε απαντήσεις σε κοινές παθήσεις του δέρματος

Αλλά ένα άρθρο στο Vice είπε ότι η Google απέτυχε να χρησιμοποιήσει ένα σύνολο δεδομένων χωρίς αποκλεισμούς:

Για να ολοκληρώσουν το έργο, οι ερευνητές χρησιμοποίησαν ένα σύνολο δεδομένων εκπαίδευσης 64,837 εικόνων 12,399 ασθενών που βρίσκονται σε δύο πολιτείες. Αλλά από τις χιλιάδες δερματικές παθήσεις που απεικονίζονται, μόνο το 3.5 τοις εκατό προερχόταν από ασθενείς με τύπους δέρματος Fitzpatrick V και VI—αυτοί που αντιπροσωπεύουν το καφέ δέρμα και το σκούρο καφέ ή μαύρο δέρμα, αντίστοιχα. Το 90 τοις εκατό της βάσης δεδομένων αποτελούνταν από άτομα με ανοιχτόχρωμο δέρμα, πιο σκούρο λευκό δέρμα ή ανοιχτό καφέ δέρμα, σύμφωνα με τη μελέτη. Ως αποτέλεσμα της προκατειλημμένης δειγματοληψίας, οι δερματολόγοι λένε ότι η εφαρμογή θα μπορούσε να καταλήξει να διαγνώσει υπερβολικά ή υποτονικά άτομα που δεν είναι λευκά.

Vice, Η νέα εφαρμογή δερματολογίας της Google δεν σχεδιάστηκε για άτομα με πιο σκούρο δέρμα

Η Google απάντησε λέγοντας ότι θα βελτιώσει το εργαλείο πριν το κυκλοφορήσει επίσημα:

Το εργαλείο υποβοήθησης δερματολογίας με τεχνητή νοημοσύνη είναι το αποκορύφωμα τριών και πλέον ετών έρευνας. Δεδομένου ότι η εργασία μας εμφανίστηκε στο Nature Medicine, συνεχίσαμε να αναπτύσσουμε και να βελτιώνουμε την τεχνολογία μας με την ενσωμάτωση πρόσθετων συνόλων δεδομένων που περιλαμβάνουν δεδομένα δωρεών από χιλιάδες ανθρώπους και εκατομμύρια πιο επιμελημένες εικόνες που αφορούν το δέρμα.

Google, Χρησιμοποιώντας AI για να βρείτε απαντήσεις σε κοινές παθήσεις του δέρματος

Όσο και αν ελπίζουμε ότι τα προγράμματα τεχνητής νοημοσύνης και μηχανικής μάθησης θα μπορούσαν να διορθώσουν αυτές τις προκαταλήψεις, η πραγματικότητα παραμένει: είναι μόνο ως έξυπνος καθώς τα σύνολα δεδομένων τους είναι καθαρά. Σε μια ενημέρωση της παλιάς παροιμίας προγραμματισμού σκουπίδια μέσα/σκουπίδια έξω, οι λύσεις τεχνητής νοημοσύνης είναι τόσο ισχυρές όσο η ποιότητα των συνόλων δεδομένων τους από την πρώτη στιγμή. Χωρίς διόρθωση από προγραμματιστές, αυτά τα σύνολα δεδομένων δεν έχουν την εμπειρία στο παρελθόν να διορθωθούν - καθώς απλά δεν έχουν κανένα άλλο πλαίσιο αναφοράς.

Η υπεύθυνη δημιουργία συνόλων δεδομένων βρίσκεται στον πυρήνα όλων ηθική τεχνητή νοημοσύνη. Και οι άνθρωποι βρίσκονται στον πυρήνα της λύσης. 

Το Mindful AI είναι ηθικό AI

Η προκατάληψη δεν συμβαίνει στο κενό. Τα ανήθικα ή μεροληπτικά σύνολα δεδομένων προέρχονται από τη λανθασμένη προσέγγιση κατά το στάδιο ανάπτυξης. Ο τρόπος για την καταπολέμηση των σφαλμάτων μεροληψίας είναι η υιοθέτηση μιας υπεύθυνης, ανθρωποκεντρικής, προσέγγισης που πολλοί στον κλάδο αποκαλούν Mindful AI. Το Mindful AI έχει τρία κρίσιμα συστατικά:

1. Το Mindful AI είναι ανθρωποκεντρικό

Από την αρχή του έργου AI, στα στάδια σχεδιασμού, οι ανάγκες των ανθρώπων πρέπει να βρίσκονται στο επίκεντρο κάθε απόφασης. Και αυτό σημαίνει όλοι οι άνθρωποι - όχι μόνο ένα υποσύνολο. Αυτός είναι ο λόγος για τον οποίο οι προγραμματιστές πρέπει να βασίζονται σε μια διαφορετική ομάδα ανθρώπων που εδρεύουν σε παγκόσμιο επίπεδο για να εκπαιδεύσουν τις εφαρμογές τεχνητής νοημοσύνης ώστε να είναι χωρίς αποκλεισμούς και χωρίς προκαταλήψεις.

Η συλλογή των συνόλων δεδομένων από μια παγκόσμια, ποικιλόμορφη ομάδα διασφαλίζει ότι οι προκαταλήψεις εντοπίζονται και φιλτράρονται έγκαιρα. Αυτές των διαφόρων εθνοτήτων, ηλικιακών ομάδων, φύλων, επιπέδων εκπαίδευσης, κοινωνικοοικονομικού υπόβαθρου και τοποθεσιών μπορούν να εντοπίσουν πιο εύκολα σύνολα δεδομένων που ευνοούν ένα σύνολο αξιών έναντι ενός άλλου, εξαλείφοντας έτσι την ακούσια προκατάληψη.

Ρίξτε μια ματιά στις εφαρμογές φωνής. Όταν εφαρμόζετε μια προσεκτική προσέγγιση AI και αξιοποιείτε τη δύναμη μιας παγκόσμιας δεξαμενής ταλέντων, οι προγραμματιστές μπορούν να λάβουν υπόψη γλωσσικά στοιχεία όπως διαφορετικές διαλέκτους και τόνους στα σύνολα δεδομένων.

Η δημιουργία ενός ανθρωποκεντρικού πλαισίου σχεδιασμού από την αρχή είναι κρίσιμη. Προχωρεί πολύ για να διασφαλίσει ότι τα δεδομένα που δημιουργούνται, επιμελούνται και επισημαίνονται ανταποκρίνονται στις προσδοκίες των τελικών χρηστών. Αλλά είναι επίσης σημαντικό να κρατάμε τους ανθρώπους ενήμερους σε όλο τον κύκλο ζωής ανάπτυξης του προϊόντος. 

Οι άνθρωποι στον βρόχο μπορούν επίσης να βοηθήσουν τα μηχανήματα να δημιουργήσουν μια καλύτερη εμπειρία AI για κάθε συγκεκριμένο κοινό. Στην Pactera EDGE, οι ομάδες έργου δεδομένων τεχνητής νοημοσύνης, που βρίσκονται παγκοσμίως, κατανοούν πώς οι διαφορετικοί πολιτισμοί και τα περιβάλλοντα μπορούν να επηρεάσουν τη συλλογή και την επιμέλεια αξιόπιστων δεδομένων εκπαίδευσης τεχνητής νοημοσύνης. Διαθέτουν τα απαραίτητα εργαλεία που χρειάζονται για να επισημάνουν προβλήματα, να τα παρακολουθήσουν και να τα διορθώσουν προτού μια λύση που βασίζεται σε AI να κυκλοφορήσει.

Η τεχνητή νοημοσύνη Human-in-the-loop είναι ένα «δίχτυ ασφαλείας» έργου που συνδυάζει τις δυνάμεις των ανθρώπων-και το διαφορετικό υπόβαθρο τους με τη γρήγορη υπολογιστική ισχύ των μηχανών. Αυτή η συνεργασία ανθρώπου και τεχνητής νοημοσύνης πρέπει να δημιουργηθεί από την αρχή των προγραμμάτων, έτσι ώστε τα προκατειλημμένα δεδομένα να μην αποτελούν θεμέλιο στο έργο. 

2. Το Mindful AI είναι υπεύθυνο

Το να είσαι υπεύθυνος είναι να διασφαλίζεις ότι τα συστήματα AI δεν έχουν προκαταλήψεις και ότι βασίζονται στην ηθική. Έχει να κάνει με το πώς, γιατί και πού δημιουργούνται δεδομένα, πώς συντίθενται από τα συστήματα τεχνητής νοημοσύνης και πώς χρησιμοποιούνται στη λήψη απόφασης, αποφάσεις που μπορεί να έχουν ηθικές επιπτώσεις. Ένας τρόπος για να το κάνει μια επιχείρηση είναι να συνεργαστεί με υποεκπροσωπούμενες κοινότητες για να είναι πιο περιεκτική και λιγότερο προκατειλημμένη. Στον τομέα των σχολιασμών δεδομένων, η νέα έρευνα υπογραμμίζει πώς ένα μοντέλο πολλαπλών εργασιών πολλαπλών σχολιασμών που αντιμετωπίζει τις ετικέτες κάθε σχολιαστή ως ξεχωριστή δευτερεύουσα εργασία μπορεί να βοηθήσει στον μετριασμό πιθανών ζητημάτων που ενυπάρχουν στις τυπικές μεθόδους αληθείας του εδάφους, όπου οι διαφωνίες σχολιασμού μπορεί να οφείλονται σε υποπαραστάσεις και μπορεί να αγνοηθεί στη συγκέντρωση σχολιασμών σε μια ενιαία βασική αλήθεια. 

3. Αξιόπιστος

Η αξιοπιστία προέρχεται από μια επιχείρηση που είναι διαφανής και εξηγήσιμη στο πώς εκπαιδεύεται το μοντέλο AI, πώς λειτουργεί και γιατί προτείνουν τα αποτελέσματα. Μια επιχείρηση χρειάζεται εμπειρογνωμοσύνη με τοπική νοημοσύνη για να καταστήσει δυνατή στους πελάτες της να κάνουν τις εφαρμογές τους AI πιο περιεκτικές και εξατομικευμένες, σεβόμενοι τις κρίσιμες αποχρώσεις στην τοπική γλώσσα και τις εμπειρίες των χρηστών που μπορούν να κάνουν ή να σπάσουν την αξιοπιστία μιας λύσης AI από τη μια χώρα στην άλλη Το Για παράδειγμα, μια επιχείρηση θα πρέπει να σχεδιάζει τις εφαρμογές της για εξατομικευμένα και τοπικά περιβάλλοντα, συμπεριλαμβανομένων γλωσσών, διαλέκτων και τόνων σε εφαρμογές που βασίζονται σε φωνή. Με αυτόν τον τρόπο, μια εφαρμογή φέρνει το ίδιο επίπεδο εκλέπτυνσης φωνητικής εμπειρίας σε κάθε γλώσσα, από τα Αγγλικά σε υποεκπροσωπούμενες γλώσσες.

Δικαιοσύνη και διαφορετικότητα

Τελικά, η τεκμηριωμένη τεχνητή νοημοσύνη διασφαλίζει ότι οι λύσεις βασίζονται σε δίκαια και ποικίλα σύνολα δεδομένων, όπου οι συνέπειες και ο αντίκτυπος συγκεκριμένων αποτελεσμάτων παρακολουθούνται και αξιολογούνται πριν η λύση βγει στην αγορά. Με το να είμαστε προσεκτικοί και να συμπεριλαμβάνουμε τους ανθρώπους σε κάθε μέρος της ανάπτυξης της λύσης, διασφαλίζουμε ότι τα μοντέλα τεχνητής νοημοσύνης παραμένουν καθαρά, ελάχιστα προκατειλημμένα και όσο το δυνατόν πιο ηθικά.

Ποια είναι η γνώμη σας;

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει το spam. Μάθετε πώς επεξεργάζονται τα δεδομένα των σχολίων σας.