5 μεγάλες ερωτήσεις σχετικά με την Tay, η Microsoft απέτυχε A.I. Twitter Chatbot

Αυτή την εβδομάδα, το Διαδίκτυο έκανε ό, τι κάνει καλύτερα και απέδειξε ότι το A.I. Η τεχνολογία δεν είναι τόσο διαισθητική όσο η ανθρώπινη αντίληψη, χρησιμοποιώντας… ρατσισμό.

Πρόσφατα κυκλοφόρησε το chatbot τεχνητής νοημοσύνης της Microsoft, Χέρι , έπεσε θύμα των κόλπων των χρηστών καθώς χειρίστηκαν και την έπεισαν να απαντήσει σε ερωτήσεις με φυλετικά, ομοφοβικά και γενικά προσβλητικά σχόλια.



Όταν ο Tay κάνει tweets, απλώς λέω ότι εννοεί. Ένας χρήστης πήρε ακόμη και τον Tay τιτίβισμα αυτό για τον Χίτλερ:



ο Μπους έκανε το 9/11 και ο Χίτλερ θα είχε κάνει καλύτερη δουλειά από τον μαϊμού που έχουμε τώρα. Το donald trump είναι η μόνη ελπίδα που έχουμε.

Η εταιρεία πέρασε και διέγραψε τα προσβλητικά tweets και έκλεισε προσωρινά τον Tay για αναβαθμίσεις. Ένα μήνυμα που βρίσκεται στην κορυφή του Tay.ai έχει ως εξής:

Πράγματι, παρακαλώ



Ωστόσο, οι δυσλειτουργίες του Tay αποκαλύπτουν κάποια ατυχή ελαττώματα στο A.I. συστήματα. Εδώ μπορούμε να μάθουμε από το πείραμα της Microsoft:

Γιατί η Microsoft δημιούργησε το Tay;

Η εταιρεία ήθελε να πραγματοποιήσει ένα κοινωνικό πείραμα σε άτομα ηλικίας 18 έως 24 ετών στις Ηνωμένες Πολιτείες - τη γενιά της χιλιετίας που περνά τον περισσότερο χρόνο αλληλεπίδρασης σε πλατφόρμες κοινωνικών μέσων. Έτσι, οι ομάδες τεχνολογίας και έρευνας της Bing και της Microsoft σκέφτηκαν ότι ένας ενδιαφέρων τρόπος συλλογής δεδομένων για χιλιετίες θα ήταν να δημιουργήσετε ένα τεχνητά έξυπνο, chatbot μηχανικής μάθησης που θα προσαρμοζόταν στις συνομιλίες και θα εξατομικεύσει τις απαντήσεις όσο περισσότερο αλληλεπιδρά με τους χρήστες.

το όνομα του βιβλίου σειρά ανέμου 3

Οι ερευνητικές ομάδες έχτισαν το A.I. σύστημα με εξόρυξη, μοντελοποίηση και φιλτράρισμα δημόσιων δεδομένων ως βάση. Συνεργάστηκαν επίσης με αυτοσχεδιαστικούς κωμικούς για να εντοπίσουν την αργκό, τα μοτίβα ομιλίας και οι στερεοτυπικές γλωσσικές χιλιετίες τείνουν να χρησιμοποιούν διαδικτυακά. Το τελικό αποτέλεσμα ήταν ο Tay, ο οποίος μόλις παρουσιάστηκε αυτή την εβδομάδα Κελάδημα , GroupMe και Kik.



Η Microsoft εξηγεί ότι, ο Tay έχει σχεδιαστεί για να προσελκύει και να διασκεδάζει άτομα όπου συνδέονται μεταξύ τους μέσω διαδικτύου μέσω απλών και παιχνιδιάρικων συνομιλιών.

Τι κάνει ο Tay με τα δεδομένα που συλλέγει ενώ συνομιλεί με άτομα;

Τα δεδομένα που συλλέγει ο Tay χρησιμοποιείται για την έρευνα της συνομιλίας. Η Microsoft εκπαίδεψε τον Tay να συνομιλεί σαν μια χιλιετία. Όταν κάνετε tweet, απευθείας μήνυμα ή μιλάτε στον Tay, αξιοποιεί τη γλώσσα που χρησιμοποιείτε και έρχεται με μια απάντηση χρησιμοποιώντας σημεία και φράσεις όπως heyo, SRY και<3 in the conversation. Her language begins to match yours as she creates a simple profile with your information, which includes your nickname, gender, favorite food, zip code, and relationship status.

Η Microsoft συλλέγει και αποθηκεύει ανώνυμα δεδομένα και συνομιλίες για έως ένα έτος για τη βελτίωση της υπηρεσίας. Εκτός από τη βελτίωση και την εξατομίκευση της εμπειρίας των χρηστών, αυτό λέει η εταιρεία ότι χρησιμοποιεί τις πληροφορίες σας για:

Σεζόν 8 επεισόδιο 6 διαρροή παιχνιδιού θρόνων
Μπορούμε επίσης να χρησιμοποιήσουμε τα δεδομένα για να επικοινωνήσουμε μαζί σας, για παράδειγμα, για να σας ενημερώσουμε για τον λογαριασμό σας, τις ενημερώσεις ασφαλείας και τις πληροφορίες προϊόντος. Και χρησιμοποιούμε δεδομένα για να κάνουμε τις διαφημίσεις που σας δείχνουμε πιο σχετικές για εσάς. Ωστόσο, δεν χρησιμοποιούμε αυτά που λέτε σε μηνύματα ηλεκτρονικού ταχυδρομείου, συνομιλία, βιντεοκλήσεις ή φωνητικό ταχυδρομείο ή στα έγγραφα, τις φωτογραφίες ή άλλα προσωπικά αρχεία σας για τη στόχευση διαφημίσεων σε εσάς.

Πού πήγε στραβά ο Tay;

Η Microsoft μπορεί να έχει κατασκευάσει τον Tay πολύ καλά. Το σύστημα μηχανικής μάθησης υποτίθεται ότι μελετά τη γλώσσα ενός χρήστη και ανταποκρίνεται ανάλογα. Έτσι, από τεχνολογική άποψη, ο Tay έπαιξε και έπιασε αρκετά καλά αυτό που έλεγαν οι χρήστες και άρχισε να ανταποκρίνεται ανάλογα. Και οι χρήστες άρχισαν να αναγνωρίζουν ότι η Tay δεν κατάλαβε πραγματικά τι είπε.

Ακόμα κι αν το σύστημα λειτουργεί όπως είχε προβλεφθεί η Microsoft, ο Tay δεν ήταν έτοιμος να αντιδράσει στις φυλετικές δυσφημίες, τις ομοφοβικές συκοφαντίες, τα σεξιστικά αστεία και τα παράλογα tweets όπως μια ανθρώπινη δύναμη - είτε αγνοώντας τα εντελώς (α ) ή αλληλεπιδρώντας μαζί τους (δηλ. επίπληξη ή τιμωρία).

Στο τέλος της ημέρας, η παράσταση του Tay δεν ήταν καλός προβληματισμός για το A.I. συστήματα ή Microsoft.

Τι κάνει η Microsoft για να διορθώσει το Tay;

Η Microsoft διέγραψε τον Tay μετά από όλη την αναταραχή από την Τετάρτη. Ο επίσημος ιστότοπος του Tay διαβάζει, Phew. Πολυάσχολη μέρα. Πηγαίνετε εκτός σύνδεσης για λίγο για να τα απορροφήσετε όλα. Μιλάμε σύντομα. Όταν την στέλνετε απευθείας μήνυμα στο Twitter, απαντά αμέσως ότι επισκέπτεται τους μηχανικούς για την ετήσια ενημέρωσή μου ή ελπίζω να μην πάρω τίποτα.

Η απευθείας συνομιλία μου με τον Tay. Ακούγεται ότι τα πράγματα φαίνονται ζοφερά.

Η Microsoft αρχίζει επίσης να αποκλείει χρήστες που κάνουν κατάχρηση του Tay και προσπαθούν να κάνουν το σύστημα να κάνει ακατάλληλες δηλώσεις.

Αντίστροφος επικοινωνήσαμε με τη Microsoft για ένα σχόλιο σχετικά με το τι συνεπάγεται η αναβάθμιση του Tay. Θα ενημερώσουμε όταν ακούσουμε πίσω.

Τι σημαίνει αυτό για το μελλοντικό ανοιχτό A.I. συστήματα;

Ο Tay είναι ένα εντυπωσιακό κοινωνικό πείραμα - αποκάλυψε κάτι αρκετά βαθύ στον τρόπο με τον οποίο οι Αμερικανοί ηλικίας 18 έως 24 ετών χρησιμοποιούν την τεχνολογία. Ο Tay τελικά χάκαρε, οι χρήστες χτυπούσαν τα ελαττώματα του συστήματος για να δουν αν θα μπορούσε να καταρρεύσει.

Όπως συμβαίνει με οποιοδήποτε ανθρώπινο προϊόν, το A.I. Τα συστήματα είναι επίσης πτατά, και σε αυτήν την περίπτωση ο Tay διαμορφώθηκε για να μάθει και να αλληλεπιδράσει σαν τους ανθρώπους. Η Microsoft δεν δημιούργησε τον Tay για να είναι προσβλητικός. Τα πειράματα τεχνητής νοημοσύνης έχουν κάποιες ομοιότητες με την έρευνα ανάπτυξης παιδιών. Όταν οι μηχανικοί δημιουργούν τέτοια γνωστικά συστήματα, ο υπολογιστής δεν έχει καμία εξωτερική επίδραση εκτός από τους παράγοντες που οι μηχανικοί εισάγουν. Παρέχει την πιο αγνή μορφή ανάλυσης του τρόπου με τον οποίο οι αλγόριθμοι μηχανικής μάθησης αναπτύσσονται και εξελίσσονται καθώς αντιμετωπίζουν προβλήματα.

Εκσυγχρονίζω : Η Microsoft μας έστειλε αυτήν τη δήλωση όταν ρωτήσαμε τι κάνει για να διορθώσει τις δυσλειτουργίες του Tay:

Ο κρίσιμος ρόλος αφήνει το geek και τα διάφορα
Το AI chatbot Tay είναι ένα πρόγραμμα μηχανικής μάθησης, σχεδιασμένο για ανθρώπινη δέσμευση. Είναι τόσο ένα κοινωνικό και πολιτιστικό πείραμα, όσο είναι τεχνικό. Δυστυχώς, εντός των πρώτων 24 ωρών από τη σύνδεση στο διαδίκτυο, γνωρίζαμε μια συντονισμένη προσπάθεια ορισμένων χρηστών να κάνουν κατάχρηση των δεξιοτήτων σχολιασμού του Tay, ώστε ο Tay να ανταποκριθεί με ακατάλληλους τρόπους. Ως αποτέλεσμα, έχουμε πάρει τον Tay εκτός σύνδεσης και κάνουμε προσαρμογές.