Η Google κυκλοφόρησε μια σειρά οδηγιών για τη δημιουργία "υπεύθυνης AI"

Υπάρχουν τόσες πολλές εφαρμογές τεχνητής νοημοσύνης που κάνουν την καθημερινή μας ζωή πολύ πιο εύκολη και πιο παραγωγική. Στο ρυθμό της καινοτομίας, όλα μπορούν να γίνουν με μία μόνο εντολή.

Η τεχνητή νοημοσύνη είναι πιο προσιτή σε έναν αυξανόμενο αριθμό ατόμων σε όλο τον κόσμο, αλλά καθώς αυτή η τεχνολογία δημιουργεί νέες δυνατότητες βελτίωσης και καθημερινής βοήθειας, οι εξελίξεις της δημιουργούν επίσης ερωτήματα σχετικά με το πώς λειτουργεί - για παράδειγμα, ποια προβλήματα μπορεί να προκαλέσει εάν δεν αναπτυχθεί υπεύθυνα.

Όπως υποδηλώνει το όνομα, είναι μια νοημοσύνη που δημιουργείται από τον άνθρωπο, αλλά πραγματοποιείται από μηχανές και έχει, σε κάποιο βαθμό, τις ίδιες ικανότητες με τους ανθρώπους: μαθαίνει, βελτιώνεται και είναι σε θέση να λειτουργεί σε ορισμένους τομείς.

Όταν μιλάμε για τεχνητή νοημοσύνη, δύο μεγάλες σχολές σκέψης συγκρούονται: εκείνοι που πιστεύουν ότι είναι ένα εργαλείο, όχι περισσότερο, και εκείνοι που πιστεύουν ότι είναι μόνο θέμα χρόνου πριν γίνει απειλή για την ανθρώπινη φυλή.

Καθώς οι δυνατότητες και οι δυνατότητές μας AI επεκτείνονται, tΘα δούμε επίσης ότι θα χρησιμοποιηθεί για επικίνδυνους ή κακόβουλους σκοπούς. Γι 'αυτό όσοι βλέπουν αυτήν την τεχνολογία ως απειλή την βλέπουν με υποψία και φόβο για τον αντίκτυπο που μπορεί να έχει στη ζωή τους. Μερικές διάσημες προσωπικότητες όπως ο Elon Musk είναι μεταξύ αυτών.

Το αφεντικό της Tesla και της SpaceX έχει ήδη προειδοποιήσει περισσότερες από μία φορές: η AI θα ξεπεράσει ανθρώπινες γνωστικές ικανότητες. Ο Musk πιστεύει ότι αυτή η τεχνολογία θα απειλήσει τους ανθρώπους στο μέλλον, ειδικά στο χώρο εργασίας.

Αυτός είναι και ο λόγος για τον οποίο η εταιρεία του Neuralink εργάζεται σε διεπαφές εγκεφάλου-μηχανής που θα εισαχθούν στο κρανίο για να προετοιμάσουν την ανθρωπότητα για ένα "μοιραίο" μέλλον όπου τα ρομπότ θα το κυβερνούν. Η αλήθεια είναι ότι υπάρχουν κάποιες ταινίες επιστημονικής φαντασίας που έχουν τρομάξει και τους ανθρώπους, που περιλαμβάνουν δυστοπικά συμβόλαια με τα οποία η AI ελέγχει τους ανθρώπους.

Οι ερευνητές λένε ότι μια AI είναι απίθανο να εμφανίσει ανθρώπινα συναισθήματα όπως η αγάπη ή το μίσος και ότι δεν υπάρχει κανένας λόγος να περιμένουμε ότι το AI θα γίνει σκόπιμα καλό ή κακό.

Με αυτή την έννοια, Η Google ανησυχεί για τον κίνδυνο που μπορεί να θέσει η AI όταν δεν αναπτύσσεστε με προσοχή και με τον τρόπο που αλληλεπιδράτε με τους ανθρώπους. Η AI πρέπει να μάθει σαν άνθρωπος, αλλά να παραμείνει αποτελεσματική και να μην γίνει επικίνδυνο μηχάνημα. Η Google υπήρξε σημαντικός παράγοντας στην ανάπτυξη της τεχνητής νοημοσύνης.

Με το ερευνητικό της πρόγραμμα Πεντάγωνο, "Project Maven", η εταιρεία έχει "εκπαιδεύσει" AI στην ταξινόμηση αντικειμένων σε εικόνες drone. Με άλλα λόγια, έχει διδάξει κηφήνες να καταλάβουν τι βλέπουν.

Το Google Now λέει ότι η τεχνητή νοημοσύνη πρέπει να ζει με προκαταλήψεις και η εταιρεία θέλει να κάνει κάτι γι 'αυτό. Για να το κάνει αυτό, η Google έχει θέσει σε εφαρμογή κατάλληλα προγράμματα για το θέμα "Υπεύθυνη AI".

Δύο από τις βασικές αρχές της τεχνητής νοημοσύνης της Google είναι «υπεύθυνοι έναντι των ανθρώπων» και «αποφυγή δημιουργίας ή ενίσχυσης αθέμιτων προκαταλήψεων». Αυτό περιλαμβάνει την ανάπτυξη ερμηνεύσιμων συστημάτων τεχνητής νοημοσύνης που θέτουν τους ανθρώπους στην πρώτη γραμμή κάθε σταδίου της διαδικασίας ανάπτυξης, διασφαλίζοντας παράλληλα ότι οι αθέμιτες προκαταλήψεις που μπορεί να έχει ένας άνθρωπος δεν αντικατοπτρίζονται στα αποτελέσματα ενός μοντέλου.

Σύμφωνα με αυτήν την οδηγία, η Google προσπαθεί να αναπτύξει την τεχνητή νοημοσύνη με υπευθυνότητα και καθορίζει έναν αριθμό συγκεκριμένων τομέων εφαρμογών που δεν θα ακολουθήσει, όπως η μη εφαρμογή τεχνητής νοημοσύνης σε τεχνολογίες που μπορούν να προκαλέσουν βλάβη ή τραυματισμό σε ανθρώπους.

Google θα προσπαθήσει να διασφαλίσει ότι οι διαθέσιμες πληροφορίες μέσω μοντέλων AI να είναι ακριβείς και υψηλής ποιότητας. Επιπλέον, η τεχνολογία "πρέπει να λογοδοτεί στους ανθρώπους, υπό τον έλεγχο της ανθρώπινης κατεύθυνσης και ελέγχου."

Οι αλγόριθμοι τεχνητής νοημοσύνης και τα σύνολα δεδομένων μπορούν να αντανακλούν, να ενισχύουν και να μειώνουν τις αθέμιτες προκαταλήψεις. Υπό αυτήν την έννοια, η Google θα προσπαθήσει να αποφύγει τις αθέμιτες επιπτώσεις στα άτομα, ειδικά εκείνα που σχετίζονται με ευαίσθητα χαρακτηριστικά όπως φυλή, εθνικότητα, φύλο, εισόδημα, εθνικότητα ή πολιτικές ή θρησκευτικές πεποιθήσεις, μεταξύ άλλων.

πηγή: https://ai.google


Αφήστε το σχόλιό σας

Η διεύθυνση email σας δεν θα δημοσιευθεί. Τα υποχρεωτικά πεδία σημειώνονται με *

*

*

  1. Υπεύθυνος για τα δεδομένα: Miguel Ángel Gatón
  2. Σκοπός των δεδομένων: Έλεγχος SPAM, διαχείριση σχολίων.
  3. Νομιμοποίηση: Η συγκατάθεσή σας
  4. Κοινοποίηση των δεδομένων: Τα δεδομένα δεν θα κοινοποιούνται σε τρίτους, εκτός από νομική υποχρέωση.
  5. Αποθήκευση δεδομένων: Βάση δεδομένων που φιλοξενείται από τα δίκτυα Occentus (ΕΕ)
  6. Δικαιώματα: Ανά πάσα στιγμή μπορείτε να περιορίσετε, να ανακτήσετε και να διαγράψετε τις πληροφορίες σας.