آزمایش‌ها نشان می‌دهد که فناوری خودران تسلا در تشخیص کودکان در جاده‌ها ناکام است | تسلا

به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،

یک گروه حامی فناوری ایمن که روز سه‌شنبه منتشر شد، ادعا کرد که نرم‌افزار کامل خودران تسلا یک تهدید بالقوه مرگبار برای عابران پیاده کودک است، آخرین مورد از یک سری ادعاها و تحقیقات در مورد فناوری برای ضربه زدن به خودروسازان برقی پیشرو جهان.

بر اساس آزمایش ایمنی انجام شده توسط پروژه سپیده دم، آخرین نسخه نرم افزار بتای کامل خودران تسلا (FSD) بارها و بارها به یک مانکن ثابت و به اندازه کودک برخورد کرد. این ادعا که این فناوری ظاهراً در تشخیص کودکان مشکل دارد، بخشی از یک کمپین تبلیغاتی از مردم می خواهد که کنگره را برای ممنوعیت فناوری رانندگی خودکار تسلا تحت فشار قرار دهند.

در چندین آزمایش، یک راننده تست حرفه‌ای متوجه شد که نرم‌افزار – که در ماه ژوئن منتشر شد – در تشخیص این رقم به اندازه یک کودک در سرعت متوسط ​​25 مایل در ساعت شکست خورد و ماشین سپس به مانکن برخورد کرد. بنیانگذار پروژه سپیده دم، دن اودود، نتایج را “عمیقاً نگران کننده” خواند.

اودود افزود: «الون ماسک، رئیس شرکت می‌گوید نرم‌افزار خودران کامل تسلا شگفت‌انگیز است». اینطور نیست. این یک تهدید مرگبار برای همه آمریکایی ها است.

بیش از 100000 راننده تسلا در حال حاضر از حالت رانندگی خودکار کامل خودرو در جاده های عمومی استفاده می کنند و کودکان را در جوامع سراسر کشور در معرض خطر بزرگی قرار می دهد.

اودود استدلال کرد که نتایج آزمایش نشان می‌دهد که نیاز به ممنوعیت خودروهای خودران تا زمانی که تسلا ثابت کند این وسایل نقلیه «کودکان را در گذرگاه‌های عابر پیاده نمی‌برند» را نشان می‌دهد.

تسلا بارها به این ادعاها پاسخ داده است که فناوری خودران آن برای تضمین ایمنی سرنشینان خودرو یا سایر کاربران جاده توسعه نیافته است.

اودود متهم شده است که او چیزی بیش از یک رقیب تسلا نیست، زیرا شرکت او خود را به عنوان یک متخصص در ساختن نرم افزارهای خاص مورد استفاده در سیستم های رانندگی خودکار می داند. اودود اصرار دارد که نرم افزار Green Hills او با تسلا رقابت نمی کند و می گوید که ماشین های خودران نمی سازد. اما او اذعان کرده است که برخی از شرکت های خودروسازی از نرم افزار شرکت او برای قطعات خاصی استفاده می کنند.

پس از یک تصادف آتشین در تگزاس در سال 2021 که منجر به کشته شدن دو نفر به نام ماسک شد توییت کرد که ویژگی خلبان خودکار، یک نسخه کمتر پیچیده از FSD، در لحظه برخورد روشن نشده است.

در جلسه سهامداران شرکت در اوایل ماه جاری، ماسک گفت که Full Self-Driving بسیار بهبود یافته است و او انتظار دارد که این نرم افزار را تا پایان سال برای همه مالکانی که آن را درخواست می کنند در دسترس قرار دهد. اما سوالات در مورد ایمنی آن همچنان بالا می رود.

در ماه ژوئن، اداره ملی ایمنی ترافیک بزرگراه (NHTSA) گفت که در حال گسترش تحقیقات در مورد 830000 خودروی تسلا در هر چهار خط مدل فعلی است. این گسترش پس از تجزیه و تحلیل تعدادی از تصادفات انجام شد که الگوهای عملکرد خودرو و رفتار راننده را نشان داد.

NHTSA گفت که تحقیقات گسترده با هدف بررسی میزانی که فناوری خلبان خودکار تسلا و سیستم‌های مرتبط «ممکن است عوامل انسانی یا خطرات ایمنی رفتاری را با تضعیف اثربخشی نظارت راننده تشدید کند، بررسی می‌کند.

دومین تحقیق NHTSA نیز در حال انجام است تا مشخص شود که آیا حذف حسگر رادار آینده‌نگر در برخی از تسلاهای جدید باعث می‌شود خودروها بدون دلیل ترمزهای خود را فشار دهند، که به آن «ترمز فانتوم» می‌گویند و می‌تواند منجر به خرابی شود.

از سال 2016، آژانس 30 تصادف مربوط به تسلاهای مجهز به سیستم های رانندگی خودکار را بررسی کرده است که 19 مورد از آنها منجر به مرگ شده است. دفتر بررسی عیوب NHTSA همچنین در حال بررسی فناوری خلبان خودکار این شرکت در حداقل 11 تصادف است که تسلاس با خودروهای اضطراری برخورد کرده است.

بسیاری از این غرق‌ها توسط NHTSA بررسی نمی‌شوند. و در نزدیک به 400 تصادف مربوط به خودروهای دارای سیستم کمک راننده گزارش شده توسط خودروسازان بین جولای 2021 تا مه گذشته، تعداد تسلاهای بیشتری نسبت به مجموع تمام تولیدکنندگان دیگر درگیر شده است.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

بازی های برگشت نیمه نهایی لیگ اروپا و لیگ کنفرانس اروپا – زنده | لیگ اروپا

به گزارش دپارتمان اخبار ورزشی پایگاه خبری آبان نیوز ، اتفاقات کلیدی فقط رویدادهای کلیدی را …