به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
سازمان دیدهبان داده بریتانیا هشداری به شرکتهای فناوری درباره استفاده از اطلاعات شخصی افراد برای توسعه چتباتها صادر کرده است، زیرا این نگرانی وجود دارد که فناوری زیربنایی بر روی مقادیر زیادی مواد فیلتر نشده خراشیده شده از وب آموزش داده شده است.
مداخله دفتر کمیسر اطلاعات پس از آن صورت گرفت که همتای ایتالیایی آن ChatGPT را به دلیل نگرانی در مورد حفظ حریم خصوصی داده ها به طور موقت ممنوع کرد.
ICO اعلام کرد شرکتهایی که در حال توسعه و استفاده از چتباتها هستند، باید به حریم خصوصی افراد هنگام ساخت سیستمهای هوش مصنوعی مولد احترام بگذارند. ChatGPT، شناختهشدهترین نمونه هوش مصنوعی مولد، مبتنی بر سیستمی به نام مدل زبان بزرگ (LLM) است که با تغذیه حجم وسیعی از دادههای جمعآوریشده از اینترنت «آموزش داده میشود».
“واقعاً هیچ بهانه ای برای اشتباه گرفتن پیامدهای حریم خصوصی هوش مصنوعی مولد وجود ندارد. استفان آلموند، مدیر فناوری و نوآوری ICO گفت: ما سخت کار خواهیم کرد تا مطمئن شویم که سازمانها آن را به درستی انجام میدهند.
آلموند در یک پست وبلاگی به تصمیم ایتالیا و نامه ای که هفته گذشته توسط دانشگاهیان از جمله ایلان ماسک و استیو وزنیاک بنیانگذار اپل امضا شد، اشاره کرد که خواستار توقف فوری ایجاد “آزمایش های غول پیکر هوش مصنوعی” برای حداقل شش نفر شده بود. ماه ها. در این نامه آمده است که نگرانیهایی وجود دارد که شرکتهای فناوری در حال ایجاد «ذهن دیجیتال قدرتمندتر» هستند که هیچکس نمیتواند آنها را «درک، پیشبینی یا بهطور قابل اعتماد کنترل کند».
آلموند گفت که مکالمه خودش با ChatGPT منجر به این شده است که چت بات به او بگوید که هوش مصنوعی مولد «اگر مسئولانه استفاده نشود، میتواند خطراتی برای حریم خصوصی دادهها ایجاد کند». او افزود: «تخیل زیادی لازم نیست تا ببینیم پتانسیل یک شرکت برای آسیب رساندن سریع به رابطهای که به سختی به دست آمده با مشتریان از طریق استفاده ضعیف از هوش مصنوعی مولد آسیب میرساند.»
آلموند با اشاره به فرآیند آموزش LLM گفت که قانون حفاظت از داده ها همچنان اعمال می شود که اطلاعات شخصی در حال پردازش از منابع در دسترس عموم باشد.
چک لیستی که توسط ICO در روز دوشنبه منتشر شد بیان کرد که بر اساس مقررات عمومی حفاظت از داده های بریتانیا (GDPR)، باید مبنای قانونی برای پردازش داده های شخصی وجود داشته باشد، مانند اینکه فردی “رضایت صریح” خود را برای استفاده از داده های خود بدهد. چک لیست گفت، گزینه های دیگری نیز وجود داشت که نیازی به رضایت نداشتند، مانند داشتن “منافع قانونی”.
این سازمان اضافه کرد که شرکتها باید یک ارزیابی تاثیر حفاظت از دادهها را انجام دهند و خطرات امنیتی مانند نشت دادههای شخصی و به اصطلاح حملات استنتاج عضویت را کاهش دهند، که به موجب آن بازیگران سرکش سعی میکنند شناسایی کنند که آیا از یک فرد خاص در دادههای آموزشی برای یک LLM استفاده شده است یا خیر.
ناظر حفاظت از اطلاعات ایتالیا روز جمعه با اشاره به نشت داده ها در ماه گذشته و نگرانی در مورد استفاده از داده های شخصی در سیستم زیربنای چت بات، ممنوعیت موقت ChatGPT را اعلام کرد. سازمان دیده بان گفت که به نظر می رسد “هیچ مبنای قانونی برای جمع آوری و پردازش گسترده داده های شخصی به منظور “آموزش” الگوریتم هایی که پلتفرم بر آن تکیه دارد وجود ندارد.
در پاسخ به ممنوعیت ایتالیایی، سام آلتمن، مدیر اجرایی OpenAI توسعه دهنده ChatGPT، گفت: “ما فکر می کنیم که از تمام قوانین حفظ حریم خصوصی پیروی می کنیم.” اما این شرکت از به اشتراک گذاشتن هر گونه اطلاعاتی در مورد اینکه چه داده هایی برای آموزش GPT-4 استفاده شده است، خودداری کرده است، آخرین نسخه فناوری اساسی که ChatGPT را تامین می کند.
نسخه قبلی، GPT-3، بر روی 300 میلیارد کلمه حذف شده از اینترنت عمومی، و همچنین محتوای میلیونها کتاب الکترونیکی و کل ویکیپدیای انگلیسی زبان آموزش داده شد.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.