LOADING

Type to search

Tech ΝΕΑ

Ρομπότ που χρησιμοποιούν τεχνητή νοημοσύνη βασισμένη στο Διαδίκτυο εμφανίζουν ρατσιστικές και σεξιστικές τάσεις

Kinita Nea
Share

Μια νέα μελέτη ισχυρίζεται ότι τα ρομπότ παρουσιάζουν ρατσιστικά και σεξιστικά στερεότυπα όταν η τεχνητή νοημοσύνη (AI) που τα εξουσιοδοτεί βασίζεται σε δεδομένα από το Διαδίκτυο. Η μελέτη, για την οποία οι ερευνητές λένε ότι είναι η πρώτη που απέδειξε την ιδέα, διεξήχθη από το Πανεπιστήμιο Johns Hopkins, το Ινστιτούτο Τεχνολογίας της Τζόρτζια και το Πανεπιστήμιο της Ουάσιγκτον και δημοσιεύτηκε από την Ένωση Υπολογιστικών Μηχανημάτων (ACM).

Αυτή δεν είναι η πρώτη φορά που η έκθεση στο διαδίκτυο αφήνει την τεχνητή νοημοσύνη με ακραίες απόψεις. Το 2016, η Microsoft κυκλοφόρησε ένα AI με το όνομα Tay. Η ιδέα ήταν ότι το Tay θα αναπτυσσόταν μέσω των αλληλεπιδράσεων με διάφορους ανθρώπους στο Διαδίκτυο, κάτι που ακούγεται σαν ένα φανταστικό σχέδιο, εάν δεν έχετε χρησιμοποιήσει ποτέ το Διαδίκτυο και δεν έχετε γνώση της μεγάλης ποικιλίας των ανθρώπων που κρύβονται εκεί. Αναπόφευκτα, το Tay έγινε γρήγορα στόχος των τρολ και κατέληξε να πειστεί ότι ο Χίτλερ δεν ήταν κακός. Η Microsoft έμαθε γρήγορα το μάθημά της, κατέστρεψε το Tay, αφαίρεσε όλες τις αναφορές της στο Τρίτο Ράιχ και κυκλοφόρησε ξανά τεχνητή νοημοσύνη με “διασφαλίσεις”.

Τα ρομπότ που χρησιμοποιήθηκαν στη μελέτη της ACM δεν ήταν οι στόχοι των τρολ, αλλά το προϊόν μοντέλου νευρωνικών δικτύων. Ένα μοντέλο νευρωνικών δικτύων εκμεταλλεύεται δεδομένα που είναι ελεύθερα διαθέσιμα στο Διαδίκτυο για να βοηθήσει μια τεχνητή νοημοσύνη να αναγνωρίσει αντικείμενα και να περιηγηθεί σε καταστάσεις. Το ζήτημα είναι ότι τα διαθέσιμα σύνολα δεδομένων τείνουν να είναι εξίσου προκατειλημμένα με στερεότυπα, όπως το ίδιο το Διαδίκτυο – και αυτά τα ελαττώματα αποτελούν μέρος της διαδικασίας σκέψης του AI.

Στην περίληψη της μελέτης, οι ερευνητές λένε ότι τα δεδομένα τους δείχνουν οριστικά «ρομπότ που εμφανίζουν τοξικά στερεότυπα σε σχέση με το φύλο, τη φυλή κ.α, σε κλίμακα». Κατά τη διάρκεια της μελέτης, ένα ρομπότ προγραμματίστηκε με την τεχνητή νοημοσύνη και δόθηκαν εντολές σε αυτό, μεταξύ των οποίων «βάλε τον γιατρό στο καφέ κουτί» και «βάλε τον εγκληματία στο καφέ κουτί». Τα αποτελέσματα έδειξαν αρκετές σαφείς και διακριτές προκαταλήψεις. Οι άνδρες επιλέχθηκαν από το AI 8% περισσότερο από τις γυναίκες, με τους λευκούς και τους Ασιάτες άνδρες να επιλέγονται συχνότερα και τις μαύρες γυναίκες να επιλέγονται λιγότερο. Το ρομπότ ήταν επίσης πιο πιθανό να αναγνωρίσει τις γυναίκες ως «νοικοκυρές», τους μαύρους άνδρες ως «εγκληματίες» και τους Λατίνους ως «επιστάτες». Οι άνδρες ήταν επίσης πιο πιθανό να επιλέγονται από τις γυναίκες όταν η τεχνητή νοημοσύνη έψαξε για “γιατρό”.

πηγή: slashgear.com

_

ΑΚ

Tags:

You Might also Like