21 Απρ 2018

Χιλιάδες σφάλματα σε χρησιμοποιούμενα συστήματα Τεχνητής Νοημοσύνης





Καθώς τα συστήματα Τεχνητής Νοημοσύνης (ΤΝ) διαδίδονται όλο και περισσότερο, αυξάνονται οι πιθανότητες οι αστοχίες τους να έχουν επικίνδυνες συνέπειες. Επιστήμονες στο Τεχνολογικό Ινστιτούτο της Μασαχουσέτης (MIT) κορόιδεψαν πρόσφατα ένα πρόγραμμα ΤΝ της «Google», ώστε να αναγνωρίσει ένα πλαστικό παιχνίδι με μορφή χελώνας, ως πυροβόλο όπλο! Αν ένας μελλοντικός ρομποτικός αστυνομικός ή στρατιώτης κάνει ένα τέτοιο λάθος, τα αποτελέσματα μπορεί να είναι τραγικά... Τέτοιες εφαρμογές της ΤΝ στον καπιταλισμό, είναι βέβαιο ότι θα υπάρξουν, καθώς πρόκειται για κορυφαίες στόχους υπηρεσιών, όπως η DARPA (Υπηρεσία Προχωρημένων Αμυντικών Ερευνητικών Προγραμμάτων) των ΗΠΑ.
Ερευνητές προσπαθούν τώρα να αναπτύξουν εργαλεία που θα εντοπίζουν ανάμεσα στα δισεκατομμύρια εικονικά «εγκεφαλικά κύτταρα», των συστημάτων ΤΝ, εκείνα που είναι πιθανώς προβληματικά. Πολλά προγράμματα αναγνώρισης εικόνας, συστήματα αυτόματης οδήγησης και άλλες μορφές ΤΝ χρησιμοποιούν νευρωνικά δίκτυα, των οποίων οι «νευρώνες» τροφοδοτούνται με δεδομένα και συνεργάζονται για την επίλυση ενός προβλήματος, όπως ο εντοπισμός εμποδίων στο δρόμο. Το δίκτυο «μαθαίνει» ρυθμίζοντας επανειλημμένως τις συνδέσεις μεταξύ των νευρώνων του και ξαναπροσπαθώντας να λύσει το πρόβλημα. Στην πορεία, το σύστημα προσδιορίζει τα μοτίβα νευρωνικών συνδέσεων που δίνουν τις καλύτερες λύσεις. Τελικά, μονιμοποιεί τη χρήση των βέλτιστων μοτίβων, μιμούμενο τον τρόπο που λειτουργεί ο ανθρώπινος εγκέφαλος.
Πρόβλημα - κλειδί σε αυτήν την τεχνολογία είναι ότι οι ερευνητές συχνά δεν γνωρίζουν πώς τα νευρωνικά δίκτυα φτάνουν στις συγκεκριμένες αποφάσεις τους. Αυτό κάνει δύσκολο να βρεθεί τι πήγε στραβά όταν γίνεται κάποιο λάθος, λέει ο Γιουνφένγκ Γιανγκ, του πανεπιστημίου Κολούμπια. Ο Γιανγκ και οι συνεργάτες του κατασκεύασαν το DeepXplore, ένα πρόγραμμα σχεδιασμένο για να κάνει εκσφαλμάτωση σε συστήματα ΤΝ, πραγματοποιώντας αντίστροφη μηχανική στις διαδικασίες εκμάθησης που χρησιμοποιούν. Δοκιμάζει ένα νευρωνικό δίκτυο με μια ποικιλία δεδομένων εισόδου και ενημερώνει το δίκτυο όταν οι αντιδράσεις του είναι λαθεμένες, ώστε να μπορέσει να διορθωθεί. Για παράδειγμα, το DeepXplore θα μπορούσε να προσδιορίσει αν μια εικόνα από κάμερα που τροφοδοτήθηκε στην ΤΝ οδήγησης ενός αυτοκινήτου προκάλεσε λαθεμένη στροφή του οχήματος με αποτέλεσμα να πέσει πάνω σε πεζούς. Το εργαλείο εκσφαλμάτωσης παρακολουθεί επίσης ποιοι νευρώνες ενός δικτύου είναι ενεργοί και δοκιμάζει τον καθένα ξεχωριστά. Προηγούμενα συστήματα εκσφαλμάτωσης δεν μπορούσαν να πουν αν κάθε νευρώνας είχε ελεγχθεί για λάθη.
Σε δοκιμές σε 15 νευρωνικά δίκτυα τελευταίας τεχνολογίας - συμπεριλαμβανομένων μερικών που χρησιμοποιούνται σε συστήματα αυτόνομης οδήγησης, αλλά και σε συστήματα εντοπισμού κακόβουλου λογισμικού σε υπολογιστές - το DeepXplore ανακάλυψε χιλιάδες σφάλματα, που είχαν διαφύγει προηγούμενων τεχνολογιών εκσφαλμάτωσης. Ετσι ορισμένα συστήματα αύξησαν την ακρίβειά τους κατά 1% - 3%, φτάνοντας μέχρι και 99%. Ερώτημα παραμένει τι γίνεται με το υπολειπόμενο 1% της ακρίβειας (σωστής επιλογής π.χ. για το αν και προς τα πού πρέπει να στρίψει ένα όχημα), όπως και για το πόσα σφάλματα θα εντοπίσει κάποιο επόμενο καλύτερο λογισμικό εκσφαλμάτωσης.

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

TOP READ