NeMo Guardrails, το νέο λογισμικό ανοιχτού κώδικα της Nvidia που έχει σχεδιαστεί για να κάνει την τεχνητή νοημοσύνη πιο ασφαλή

nemo

Το λογισμικό μπορεί να βοηθήσει τους προγραμματιστές να καθοδηγήσουν τις παραγωγικές εφαρμογές τεχνητής νοημοσύνης για να δημιουργήσουν εντυπωσιακές αποκρίσεις κειμένου που παραμένουν σε καλό δρόμο.

Πρόσφατα αποκαλύφθηκε ότι Η Nvidia κυκλοφόρησε νέο λογισμικόονομάζεται Προστατευτικά κιγκλιδώματα NeMo, για να βοηθήσει τους προγραμματιστές και τις επιχειρήσεις να καθοδηγήσουν και να ελέγξουν τις γεννητικές αποκρίσεις των AI τους.

Προστατευτικά κιγκλιδώματα NeMo στοχεύει να κάνει chatbots AI και άλλες εφαρμογές δημιουργήθηκε από εκτενή γλωσσικά μοντέλα (LLM) είναι ακριβείς, κατάλληλες, σχετικές και ασφαλείς. Με άλλα λόγια, θα βοηθήσει τους χρήστες να αποτρέψουν τα μοντέλα AI από το να υποδεικνύουν λανθασμένα γεγονότα, βγείτε εκτός θέματος, μιλήστε για επικίνδυνα θέματα ή ανοίξτε τρύπες ασφαλείας. Η ανακοίνωση υποδηλώνει ότι τα NeMo Guardrails μπορούν να βοηθήσουν στην επίλυση του προβλήματος των παραισθήσεων του AI chatbot, αλλά πολλοί είναι δύσπιστοι σχετικά με αυτό.

Παρά τη διαφημιστική εκστρατεία, τα μεγάλα μοντέλα τεχνητής νοημοσύνης που δημιουργούν κείμενο όπως το GPT-4 του OpenAI κάνουν πολλά λάθη, μερικά από τα οποία είναι επιζήμια. Και είναι ότι όπως γνωρίζουμε το AI εκπαιδεύεται από terabytes δεδομένων για να δημιουργεί προγράμματα ικανά να δημιουργούν μπλοκ κειμένου που διαβάζονται σαν να γράφτηκαν από άνθρωπο.

Αλλά έχουν επίσης την τάση να επινοούν πράγματα, τα οποία οι ασκούμενοι συχνά αποκαλούν «ψευδαίσθηση». Οι πρώιμες εφαρμογές της τεχνολογίας, όπως η σύνοψη εγγράφων ή η απάντηση σε βασικές ερωτήσεις, πρέπει να ελαχιστοποιούν τις «παραισθήσεις» για να είναι χρήσιμες.

Οι δημιουργοί αυτών των μοντέλων AI ισχυρίζονται ότι αναλαμβάνουν δράση για την αντιμετώπιση προβλημάτων, όπως η ρύθμιση φίλτρων και ομάδων ανθρώπινων συντονιστών για τη διόρθωση προβλημάτων όταν αναφέρονται. Αλλά δεν υπάρχει μια ενιαία λύση.

Ακόμη και τα καλύτερα μοντέλα του σήμερα είναι επιρρεπή σε μεροληψία, τοξικότητα και κακόβουλες επιθέσεις. Στην προσπάθειά της για «πιο ασφαλή» LLM, η Nvidia κυκλοφόρησε το NeMo Guardrails, ένα σύνολο εργαλείων ανοιχτού κώδικα που στοχεύει στο να κάνει τις εφαρμογές με τεχνητή νοημοσύνη πιο ακριβείς, κατάλληλες, σχετικές και ασφαλείς. Η Nvidia είπε ότι το εργαλείο της είναι το αποτέλεσμα πολυετούς έρευνας.

Σύμφωνα με την Nvidia, NeMo Guardrails είναι ένα επίπεδο λογισμικού που βρίσκεται μεταξύ του χρήστη και του LLM ή άλλα εργαλεία AI από τότε αφαιρεί τα κακά αποτελέσματα πριν τα παράγει το μοντέλο και εμποδίζει το μοντέλο να επεξεργαστεί εσφαλμένες ενδείξεις.

Σε μια δήλωση, ο Jonathan Cohen, αντιπρόεδρος εφαρμοσμένης έρευνας της Nvidia, εξήγησε:

«Εάν έχετε ένα chatbot εξυπηρέτησης πελατών, σχεδιασμένο να μιλά για τα προϊόντα σας, πιθανότατα δεν θέλετε να απαντά σε ερωτήσεις σχετικά με τους ανταγωνιστές μας. Θέλετε να παρακολουθείτε τη συνομιλία. Και αν συμβεί αυτό, κατευθύνετε τη συζήτηση στα θέματα που προτιμάτε».

Το NeMo Guardrails περιλαμβάνει κώδικα, παραδείγματα και τεκμηρίωση για την προσθήκη ασφάλειας σε εφαρμογές τεχνητής νοημοσύνης που δημιουργούν κείμενο και ομιλία. Η Nvidia λέει ότι το κιτ εργαλείων έχει σχεδιαστεί για να λειτουργεί με τα περισσότερα LLM, επιτρέποντας στους προγραμματιστές να δημιουργούν κανόνες χρησιμοποιώντας λίγες μόνο γραμμές κώδικα.

«Τελικά, οι προγραμματιστές ελέγχουν τι είναι εκτός των ορίων της εφαρμογής τους με το NeMo Guardrails. Μπορούν να αναπτύξουν κιγκλιδώματα που είναι πολύ φαρδιά ή αντίστροφα πολύ στενά για την περίπτωση χρήσης τους», είπε ο Κοέν.

Προστατευτικά κιγκλιδώματα NeMo επιτρέπει στους προγραμματιστές να ορίσουν τρεις τύπους ορίων:

  1. Μέτρα ασφαλείας Τα θέματα εμποδίζουν την αναδρομολόγηση των εφαρμογών σε ανεπιθύμητους τομείς. Για παράδειγμα, εμποδίζουν τους βοηθούς εξυπηρέτησης πελατών να απαντούν σε ερωτήσεις σχετικά με τον καιρό.
  2. Μέτρα ασφαλείας, διασφαλίζουν ότι οι εφαρμογές ανταποκρίνονται με ακριβείς και κατάλληλες πληροφορίες. Μπορούν να φιλτράρουν την ανεπιθύμητη γλώσσα και να διασφαλίζουν ότι οι αναφορές γίνονται μόνο σε αξιόπιστες πηγές.
  3. Οι εφαρμογές περιορίζονται στη δημιουργία συνδέσεων με εξωτερικές εφαρμογές τρίτων που είναι γνωστό ότι είναι ασφαλείς.

Σύμφωνα με την Nvidia, το NeMo Guardrails μπορεί να χρησιμοποιήσει ένα LLM για να ανιχνεύσει παραισθήσεις ζητώντας από ένα άλλο LLM να ελέγξει την απόκριση του πρώτου LLM.

Στη συνέχεια, επιστρέφει "Δεν ξέρω" εάν το μοντέλο δεν βρει αντίστοιχες απαντήσεις. Αν και η μέθοδος φαίνεται πρακτική, αρκετοί κριτικοί έχουν εκφράσει σκεπτικισμό απέναντί ​​της. Από αυτή την άποψη, η Nvidia έχει αναγνωρίσει ότι το NeMo Guardrails δεν είναι μια ενιαία λύση για όλες τις ελλείψεις γλωσσικών μοντέλων. Ο γίγαντας με έδρα τη Σάντα Κλάρα της Καλιφόρνια είπε ότι το νέο του σύνολο εργαλείων δεν είναι χωρίς ελαττώματα. Με άλλα λόγια, τα NeMo Guardrails δεν θα καλύπτουν τα πάντα.

Ο Κοέν επίσηςΤο n επισημαίνει ότι το NeMo Guardrails λειτουργεί πολύ καλύτερα με μοντέλα που είναι αρκετά καλά να ακολουθείτε οδηγίες, όπως το ChatGPT, και οι οποίες χρησιμοποιούν το δημοφιλές πλαίσιο LangChain για τη δημιουργία εφαρμογών που υποστηρίζονται από AI.

Αυτό αποκλείει ορισμένες από τις υπάρχουσες επιλογές ανοιχτού κώδικα. Εκτός από ερωτήσεις σχετικά με την αποτελεσματικότητα του εργαλείου, πρέπει να σημειωθεί ότι Η Nvidia δεν κυκλοφορεί απαραίτητα τα NeMo Guardrails από καθαρή καλοσύνη. Αποτελεί μέρος του πλαισίου NeMo της εταιρείας, το οποίο είναι διαθέσιμο μέσω της σουίτας λογισμικού εταιρικής τεχνητής νοημοσύνης της Nvidia και της πλήρως διαχειριζόμενης υπηρεσίας cloud NeMo.

Τέλος, εάν ενδιαφέρεστε να μάθετε περισσότερα για αυτό, μπορείτε να συμβουλευτείτε τις λεπτομέρειες στο παρακάτω σύνδεσμο.