ગૂગલે "જવાબદાર એઆઇ" બનાવવા માટે માર્ગદર્શિકાઓની શ્રેણીબદ્ધ રજૂ કરી

એવી ઘણી કૃત્રિમ બુદ્ધિ એપ્લિકેશન છે જે આપણું દૈનિક જીવન ખૂબ સરળ અને વધુ ઉત્પાદક બનાવે છે. નવીનતાની ગતિએ, બધું એક આદેશથી કરી શકાય છે.

લોકોની સંખ્યા વધવા માટે એ.આઇ. વધુ સુલભ છે વિશ્વભરમાં, પરંતુ જેમ જેમ આ તકનીકી સુધારણા અને દૈનિક સહાય માટેની નવી શક્યતાઓ બનાવે છે, તેની પ્રગતિઓ તે કેવી રીતે કાર્ય કરે છે તે વિશે પણ પ્રશ્નો ઉભા કરે છે - ઉદાહરણ તરીકે, જો તે જવાબદારીપૂર્વક વિકસિત ન થાય તો તે કઈ સમસ્યાઓ પેદા કરી શકે છે.

નામ સૂચવે છે, તે માણસ દ્વારા બનાવેલ એક બુદ્ધિ છે, પરંતુ મશીનો દ્વારા કરવામાં આવે છે અને તે, અમુક હદ સુધી, માનવીઓ જેટલી જ ક્ષમતાઓ છે: તે શીખે છે, સુધારે છે અને ચોક્કસ ક્ષેત્રોમાં કાર્ય કરવા સક્ષમ છે.

જ્યારે આપણે કૃત્રિમ બુદ્ધિ વિશે વાત કરીએ, ત્યારે બે મહાન શાળાઓની વિચારધારા ટકરાઈ: જેઓ માને છે કે તે એક સાધન છે, હવે નહીં, અને જેઓ માને છે કે તે માનવ જાતિ માટે જોખમી બને તે પહેલાં ફક્ત સમયની વાત છે.

જેમ જેમ આપણી એઆઈ ક્ષમતાઓ અને સંભાવનાઓ વિસ્તરે છે, ટીઅમે તે પણ જોશું કે તેનો ઉપયોગ જોખમી અથવા દૂષિત હેતુઓ માટે કરવામાં આવશે. તેથી જ, જેઓ આ તકનીકીને ખતરો તરીકે જુએ છે, તે તેને શંકા અને ડરથી જુએ છે જેની અસર તેના જીવન પર પડી શકે છે. એલોન મસ્ક જેવી કેટલીક પ્રખ્યાત હસ્તીઓ તેમની વચ્ચે છે.

ટેસ્લા અને સ્પેસએક્સ બોસ પહેલાથી જ એક કરતા વધુ વખત ચેતવણી આપી ચૂક્યા છે: એઆઈ આઉટપર્ફોર્મ કરશે માનવ જ્ognાનાત્મક ક્ષમતાઓ. કસ્તુરી માને છે કે આ તકનીક ભવિષ્યમાં મનુષ્યને ધમકી આપશે, ખાસ કરીને કાર્યસ્થળમાં.

આ જ કારણ છે કે તેની કંપની ન્યુરલિંક મગજ-મશીન ઇન્ટરફેસો પર કામ કરી રહી છે જે ખોપરીના ભાવિ માટે રોબોટ્સ શાસન કરશે તે માટે માનવતાને તૈયાર કરવા ખોપડીમાં દાખલ કરવામાં આવશે. સત્ય એ છે કે, કેટલીક વૈજ્ sciાનિક મૂવીઝ છે જેણે લોકોને ભયભીત પણ કર્યા છે, જેમાં ડાયસ્ટોપિયન ફ્યુચર્સ છે, જેમાં એ.આઇ. માણસોને કાબૂમાં રાખે છે.

સંશોધનકારો કહે છે કે એઆઈ માનવ લાગણીઓ દર્શાવવાની સંભાવના નથી પ્રેમ અથવા નફરત જેવા અને એ કે ઇરાદાપૂર્વક સરસ અથવા સરેરાશ બનવાની અપેક્ષા કરવાનું કોઈ કારણ નથી.

આ અર્થમાં, ગૂગલ એઆઇ દ્વારા theભા થઈ શકે તેવા ભય અંગે ચિંતિત છે જ્યારે તમે કાળજી અને જે રીતે તમે લોકો સાથે સંપર્ક કરો છો તેનાથી વિકાસ થતો નથી. એઆઈએ માણસોની જેમ શીખવું જોઈએ, પરંતુ કાર્યક્ષમ રહેવું જોઈએ અને ખતરનાક મશીન ન બને. એઆઈના વિકાસમાં ગૂગલ મુખ્ય ખેલાડી રહ્યું છે.

તેના પેન્ટાગોન સંશોધન પ્રોગ્રામ, "પ્રોજેક્ટ મેવેન" સાથે, કંપનીએ ડ્રોનની છબીમાં classબ્જેક્ટ્સના વર્ગીકરણમાં એઆઈને "ટ્રેનિંગ" આપ્યો છે. બીજા શબ્દોમાં કહીએ તો, તેણે ડ્રોનને તેઓ શું જોઈ રહ્યા છે તે સમજવા શીખવ્યું છે.

ગૂગલ નાઉ કહે છે કે આર્ટિફિશિયલ ઇન્ટેલિજન્સને બાયસ સાથે જીવવું પડશે અને કંપની તેના વિશે કંઈક કરવા માંગે છે. આ કરવા માટે, ગૂગલે "જવાબદાર એઆઇ" વિષય પર યોગ્ય પ્રોગ્રામ્સ મૂક્યા છે.

ગૂગલના એઆઈના બે ફંડામેન્ટલ્સ એ "લોકો માટે જવાબદાર છે" અને "અન્યાયી પૂર્વગ્રહોને બનાવવા અથવા તેને મજબૂત બનાવવાથી દૂર રહેવું" છે.. આમાં અર્થઘટન કૃત્રિમ બુદ્ધિ પ્રણાલીનો વિકાસ શામેલ છે જે લોકોને વિકાસ પ્રક્રિયાના દરેક તબક્કે મોખરે રાખે છે, જ્યારે સુનિશ્ચિત કરે છે કે કોઈ માનવીના અન્યાયી પક્ષપાત મોડેલના પરિણામોમાં પ્રતિબિંબિત થતું નથી.

આ માર્ગદર્શિકા અનુસાર, ગૂગલ કૃત્રિમ બુદ્ધિને જવાબદારીપૂર્વક વિકસિત કરવાનો પ્રયાસ કરે છે અને ઘણાં વિશિષ્ટ એપ્લિકેશન ક્ષેત્રોની સ્થાપના કરે છે જે તે અનુસરશે નહીં, જેમ કે તકનીકોમાં કૃત્રિમ બુદ્ધિનો અમલ ન કરવો કે જે લોકોને નુકસાન અથવા ઇજા પહોંચાડે છે.

Google એઆઇ મોડેલો દ્વારા ઉપલબ્ધ માહિતીને સુનિશ્ચિત કરવા પ્રયાસ કરશે સચોટ અને ઉચ્ચ ગુણવત્તાવાળી. તદુપરાંત, તકનીકી "લોકો માટે જવાબદાર હોવી જોઈએ, માનવ દિશા અને નિયંત્રણને આધિન."

કૃત્રિમ બુદ્ધિના ગાણિતીક નિયમો અને ડેટા સેટ્સ, અન્યાયી પક્ષપાતને પ્રતિબિંબિત કરી શકે છે, તેને મજબૂત બનાવી શકે છે અને ઘટાડે છે. આ અર્થમાં, ગૂગલ લોકો પરના અન્યાયી પ્રભાવોને ટાળવા માટે પ્રયત્ન કરશે, ખાસ કરીને જાતિ, જાતિ, જાતિ, આવક, રાષ્ટ્રીયતા અથવા રાજકીય અથવા ધાર્મિક માન્યતાઓ જેવા સંવેદનશીલ લાક્ષણિકતાઓથી સંબંધિત.

સ્રોત: https://ai.google


તમારી ટિપ્પણી મૂકો

તમારું ઇમેઇલ સરનામું પ્રકાશિત કરવામાં આવશે નહીં. આવશ્યક ક્ષેત્રો સાથે ચિહ્નિત થયેલ છે *

*

*

  1. ડેટા માટે જવાબદાર: મિગ્યુએલ gelંજેલ ગેટóન
  2. ડેટાનો હેતુ: નિયંત્રણ સ્પામ, ટિપ્પણી સંચાલન.
  3. કાયદો: તમારી સંમતિ
  4. ડેટાની વાતચીત: કાયદાકીય જવાબદારી સિવાય ડેટા તૃતીય પક્ષને આપવામાં આવશે નહીં.
  5. ડેટા સ્ટોરેજ: cસેન્ટસ નેટવર્ક્સ (ઇયુ) દ્વારા હોસ્ટ કરેલો ડેટાબેઝ
  6. અધિકાર: કોઈપણ સમયે તમે તમારી માહિતીને મર્યાદિત, પુન recoverપ્રાપ્ત અને કા deleteી શકો છો.