Copilot ، دستیار هوش مصنوعی GitHub انتقادات شدیدی را از جامعه منبع باز دریافت کرد

چند روز پیش ما اخبار Copilot را در اینجا در وبلاگ به اشتراک می گذاریم، که یک جادوگر هوش مصنوعی برای نوشتن کد GitHub است و من اساساً آن را به عنوان ابزاری برای برنامه نویسان معرفی می کنم.

حتی اگر خلبان باشد با سیستم های تکمیل کد متفاوت است سنتی برای توانایی تشکیل بلوک های کد کاملا پیچیده ، تا توابع آماده برای استفاده با در نظر گرفتن زمینه فعلی. مانند Copilot یک عملکرد AI است که از طریق چندین میلیون کد کد فرا گرفته است و آنچه را که شما بر اساس تعریف یک تابع و غیره برنامه ریزی می کنید تشخیص می دهد.

در حالی که Copilot نشان دهنده صرفه جویی در وقت عالی است به دلیل یادگیری آن از میلیون ها خط کد ، که شروع به ایجاد ترس از این می کند که این ابزار می تواند الزامات مجوز منبع باز را دور بزند و قوانین کپی رایت را نقض کند.

آرمین روناکر ، یک توسعه دهنده برجسته در جامعه منبع باز ، او یکی از توسعه دهندگانی است که از نحوه ساختن خلبان ناامید شدم ، همانطور که ذکر می کند با استفاده از این ابزار آزمایش کرده و یک عکس صفحه در توییتر منتشر کرده است اشاره می کند که به نظر او عجیب است که خلبان ، یک ابزار هوش مصنوعی تجاری است ، می تواند کد دارای حق چاپ را تولید کند.

با توجه به این موضوع ، برخی از توسعه دهندگان نگران شدند با استفاده از کد عمومی برای آموزش هوش مصنوعی این ابزار. یک نگرانی این است که اگر Copilot قطعات کافی زیادی از کد موجود را تولید کند ، می تواند حق چاپ را نقض کند یا کد منبع باز را برای استفاده تجاری بدون مجوز مناسب (اساساً یک شمشیر دو لبه) بشویید.

علاوه بر این، نشان داده شد که این ابزار همچنین می تواند شامل اطلاعات شخصی باشد منتشر شده توسط توسعه دهندگان و در یک مورد ، کدی را که به طور گسترده از بازی PC Quake III Arena 1999 نقل شده است ، تکرار کرد ، از جمله نظرات جان کارماک ، توسعه دهنده.

کول گاری ، سخنگوی Github ، از اظهار نظر خودداری کرد و از مراجعه به س FAالات متداول موجود شرکت در وب سایت Copilot ، که تأیید می کند این ابزار می تواند از متن آموزش شما قطعه متن تولید کند ، راضی بود.

طبق گفته GitHub ، این تقریباً در 0.1٪ از زمان اتفاق می افتد ، معمولاً زمانی که کاربران زمینه کافی درمورد درخواستهای خود را ارائه نمی دهند یا وقتی که مشکل دارای یک راه حل بی اهمیت است.

"ما در حال اجرای یک سیستم ردیابی مبدا هستیم تا موارد نادر تکرار کد را در تمام داده های آموزش شناسایی کنیم ، تا به شما کمک کند در زمان واقعی تصمیمات خوبی بگیرید. در مورد پیشنهادات GitHub Copilot ، ”در س FAالات متداول این شرکت آمده است.

در همین حال ، نات فریدمن مدیر عامل GitHub استدلال کرد که آموزش سیستم های یادگیری ماشین بر روی داده های عمومی یک استفاده قانونی است ، در حالی که اذعان کرد که "مالکیت معنوی و هوش مصنوعی موضوع یک بحث سیاسی جالب خواهد بود" که در آن شرکت به طور فعال شرکت خواهد کرد.

وی در یکی از توییت های خود نوشت:

"GitHub Copilot ، به اعتراف خود ، در کوههای کد GPL ساخته شده است ، بنابراین من مطمئن نیستم که چگونه این یک نوع پولشویی نیست. کد منبع باز در کارهای تجاری. جمله "معمولاً قطعات دقیق را تولید نمی کند" خیلی راضی کننده نیست ".

"حق چاپ فقط کپی و جایگذاری را پوشش نمی دهد. آثار مشتق شده را پوشش می دهد. GitHub Copilot بر روی کد منبع باز ساخته شده است و مجموع کل آنچه را که می دانید از آن کد گرفته شده است. وی نوشت: "هیچ تعبیری ممکن است از عبارت" مشتق شده "وجود نداشته باشد که این واژه را شامل نشود. "نسل قدیمی هوش مصنوعی در متن ها و عکس های عمومی آموزش دیده است ، که ادعای حق چاپ بر روی آنها دشوارتر است ، اما این یکی از آثار عالی با مجوزهای بسیار صریح آزمایش شده توسط دادگاه ها گرفته شده است ، بنابراین من منتظر اجتناب ناپذیر / جمعی هستم / اقدامات گسترده در این مورد ".

سرانجام ، باید منتظر اقداماتی که GitHub برای اصلاح نحوه آموزش Copilot انجام خواهد داد ، باشیم ، زیرا در پایان دیر یا زود نحوه تولید کد می تواند بیش از یک توسعه دهنده را با مشکل مواجه کند.


محتوای مقاله به اصول ما پیوست اخلاق تحریریه. برای گزارش یک خطا کلیک کنید اینجا.

اولین کسی باشید که نظر

نظر خود را بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخشهای موردنیاز علامتگذاری شدهاند با *

*

*

  1. مسئول داده ها: میگل آنخل گاتون
  2. هدف از داده ها: کنترل هرزنامه ، مدیریت نظرات.
  3. مشروعیت: رضایت شما
  4. ارتباط داده ها: داده ها به اشخاص ثالث منتقل نمی شوند مگر با تعهد قانونی.
  5. ذخیره سازی داده ها: پایگاه داده به میزبانی شبکه های Occentus (EU)
  6. حقوق: در هر زمان می توانید اطلاعات خود را محدود ، بازیابی و حذف کنید.