试用了特斯拉的完全智能驾驶性能 并差点撞车 剖析师 (试用了特斯拉怎么办)
埃隆·马斯克在最近两次特斯拉业绩电话会议上表示,除十分经常常使用了驾驶辅佐系统“完全智能驾驶才干(FSD)”,否则投资者不会了解该公司。
给予特斯拉股票“持有”评级的Truist Securities剖析师William Stein以此为契机试驾了特斯拉的一辆汽车,并险些出现车祸。
“经过十字路口时,Model Y在前方汽车还没成功右转的状况下就减速了,”Stein在周一给客户的报告中写道,“我的加快干预是相对必要的,否则必需会出现异常。”
特斯拉没有立刻回应有关Stein报告的置评恳求。马斯克周一在X上发帖称,特斯拉正在部署FSD的更新版本。
Stein曾在4月初特斯拉第一季度财报电话会议完毕后试用过FSD,并于本月再次尝试。他对第一次性性测试的评价好坏参半,称其“好得惊人,但当下用途不大”,对第二次测试的总结则是“没有改善,甚至或许更糟”。
Stein的两次试驾都是在纽约郊区启动的,测试时天气晴天且无雨。在最近一次性性试驾中,FSD对关闭车道、坑洼和车流的顺应才干令他印象深化,并表示相较于上次试驾,本次驾驶“全体觉得更天然”。
他称令人惊讶且表现不佳的是该系统对驾驶员的“放纵水平”——他不再要求手握方向盘以令FSD坚持应用,并且即使视野分开路面,他也可以继续经常经常使用该系统。
“我转头完全不看路面,”Stein写道,并补充说他的儿子在继续留神风险,“系统继续应用了20-40秒才收回正告。”
除了上述为防止追尾而启动的干预外,Stein称他还启动了一次性性干预——事先一名警察用手势表示把车停到路边,以让送葬队伍经过。
“最后,在我们的路途中有一段是又弯又窄的高速公路,车道之间有一条白色实线表示制止变道,”Stein写道,“但在这种状况下Model Y还是启动了两次变道。”
Stein的结论是他测试的FSD版本“确实令人惊叹,但距离‘处置’智能驾驶还差得很远。”
特斯拉智能驾驶为何事故频发?特斯拉开启甩锅形式
近日,一辆特斯拉ModelX在韩国出现严重交通事故,惹起了社会各界的普遍关注,本次事故中共形成一死两伤。 司机泄漏,事故出现时车辆出现失控并撞向墙。 据悉,事故出现后造成首尔一处公寓楼停车场起火,仅灭火就消耗了近一个小时,韩国警方曾经展开事故要素调查。
其实特斯拉的安保事故从一末尾就从未停歇,早在2018年3月23日,38岁的苹果软件工程师黄伟伦驾驶特斯拉ModelX,在加利福尼亚州山景城左近的高速公路上出现严重车祸,不只车身被撞得七零八落,同时由于动力电池的破损造成车辆迅速起火,黄伟伦因抢救有效死亡。 据了解,出现车祸时,黄伟伦驾驶的特斯拉ModelX是在智能驾驶形式下,以约70英里/小时(113公里/时)的速度行驶。
NTSB在报告中表示,在特斯拉致命撞车事故出现前的最后6秒钟内,方向盘未能检测到黄伟伦的手,也没有证据标明其有制动或逃避的行为。 NTSB还发现了黄伟伦在驾驶环节中经常使用智能手机的证据。
依据特斯拉方面的证词,特斯拉在Autopilot接收汽车的最后18分钟里,系统没有检测到黄伟伦的手放在方向盘上,并收回了两次视觉警报,提示他的手不要分开方向盘。 特斯拉车主们表示,在经常使用Autopilot智能驾驶仪系统时,他们可以防止长时期握住方向盘,但特斯拉建议他们在经常使用该系统时还是要将手放在方向盘上,并集中留意力,显然,黄伟伦的行为违犯了特斯拉驾驶安保手册上明令制止的行为。
除此之外,还有著名的Model3高速撞车事情,事故出现前夕,一辆正常行驶的特斯拉Model3在高速行驶时,径直撞上了一台在高速公路出现事故的白色货车,随后,特斯拉对此发布声明,供认了事先的车机系统关于白色物体的判别容易出现误差,为此修正了智能驾驶性能开启的条件,司机必需时辰手扶方向盘并监测路面状况,预备时辰接收车辆。
往年1月,美国国度公路交通安保控制局(NHTSA)表示,将末尾审查一份来自独立投资者BrianSparks的请愿书,该请愿书宣称特斯拉汽车存在异常减速隐患,或许涉及2013年到2019年消费的50万辆特斯拉汽车。
据悉,这份请愿书征引了许多媒体关于特斯拉电动汽车异常减速形成撞车的报道,包括127起揭发报告,触及123辆特斯拉汽车和110起撞车事故,52人受伤。
该份报告显示,当车主试图将特斯拉车辆停在车库或路边时,这些车辆会突然减速,假设出现在交通行驶环节中或经常使用驾驶辅佐系统时,就会造成撞车事故。
特斯拉官方发布声明表示:特斯拉车辆不存在“异常减速”状况。 特斯拉同时称,请愿书完全是虚伪的,是做空机构对特斯拉的争光。 我们剖析了我们了解到的每一同车辆异常减速事情的驾驶数据,结论是特斯拉汽车在一切事情中都依照设计要求正常运转。 也就是说只要当驾驶员让汽车减速时,汽车才会减速,当驾驶员踩下制动后,车辆会正常减速或中止,但曾经出现的多起事情中,驾驶员都未能依照特斯拉的经常使用说明将手放置在方向盘上并时辰监测路面环境。 ”
特斯拉刹车失灵变“炮弹”,车主“抢”回一条命
8月12日,温州市鹿城区某小区出现了一同特斯拉Model3智能驾驶造成的车祸。 事故形成停放在停车场内的多辆车辆损毁,而涉事Model3的损毁更为严重,车头部分被完全撞毁,驾驶员陈先生也受伤严重。 经过了7个多小时抢救,输血近5000毫升,才保住了性命。
从监控录像看,这辆特斯拉Model3以超高的速度,冲撞了停车场的阻拦杆。 随后撞上了停车场内的车辆,侧翻后才停了上去。
据驾驶员陈先生表示,事先势故出现时,Model3的车辆制动失灵,撞开了不要钱处的栏杆,并冲进停车场内,造成了事故的出现。
同时他还称,事发时自己车辆的辅佐驾驶性能并没有开启,完全由自己自己操控,同时在车辆末尾突然减速失控时,自己采取了紧急制动措施,但并没有起就任何作用。
从网高端出的聊天记载来看,陈先生事先并没有开智能驾驶性能,而是自己在驾驶的途中,车辆突然自己提速,造成了这起事故的出现。 从目前的信息我们并不能判别这起事故的要素,但是关于特斯拉智能驾驶车祸的信息,屈指可数。
特斯拉Model3径直撞上侧翻大卡车
6月2日,一辆特斯拉Model3在台湾嘉义县水上乡高速路段出现车祸。 事先,一辆中型厢式货车出现侧翻,但这辆特斯拉Model3没有采取任何减速或转向避让的举措,蜿蜒地撞向了前方曾经出现侧翻的货车。 Model3司机黄某称事先车辆开启了Autopilot辅佐驾驶系统,时速约110公里每小时,发现前方有车时刹了车但为时已晚。 万幸的是,事故并未形成人员伤亡。
特斯拉ModelX失控,致一人死亡
这些惊心动魄的事故不由引人深思,路途上的状况千变万化,即使特斯拉团队再怎样聪明,他们也很难模拟出或许出现的各种隐患。
智能驾驶终究安保吗?
智能化开展到今天,从智能手机,到智能家电,再到智能汽车,确实给我们的生活带来了很多便利。 很多人买特斯拉有很大的要素也是冲着特斯拉的智能化去的,可是大家无视了一个疑问,智能手机死机了可以重启,智能汽车一旦操作不当,那或许车主就得“重启”了。
在特斯拉官方上,清楚地标注了AutoPilot只是一项辅佐性能,车主在经常使用它的时刻双手不能分开方向盘,且留意力得不时放在驾驶上。 这样的标注,就相当于18岁以下制止观看一样。
所以,一旦你在经常使用AutoPilot时刻出现了任何疑问,那只能是你的疑问。
智能汽车的疑问?
1:我们内行车环节中面临的行车环境十分复杂,目前技术无法做到100%的智能驾驶。
2:汽车的智能系统要与温度、环境、海拔、来婚配完善数据库,面对复杂的环境变换,软件能否及时驱动配件来成功指令是一个全球性难题。
3:如今的智能汽车就像当年的智能手机,如今智能汽车的系统还是早期的版本,在经常使用环节中会有各种未知的疑问,不要过火依赖智能汽车的性能。
从久远来看,智能汽车一定是未来的开展趋向,而现阶段智能汽车的系统还十分“稚嫩”,还要求很长时期的“修修补补”来完善。 所以目前而言:最安保的性能是人的看法。
“Autopilot差点要了我的命”
作者|杨玉科
编辑|Jane
出品|帮宁任务室(gbngzs)
特斯拉Autopilot(智能驾驶系统)的安保疑问有多严重?
2023年5月26日,德国《商报》(Handelsblatt)宣布一篇名为《我的Autopilot差点要了我的命》文章称,一名揭发人暴露的特斯拉外部文件中,有少量数据标明——特斯拉智能驾驶技术的疑问,或许比此前媒体报道和监管机构所泄漏的愈加普遍。
依据暴露数据,在2015年至2022年3月时期,特斯拉客户曾经提出2400多起关于智能减速疑问,以及1500起关于刹车疑问的揭发,触及美国、欧洲和亚洲等地域。
这还不是全部,《商报》表示,这些数据中,包括了许多关于客户、员工和商业同伴的团体信息和商业秘密,包括超越10万名特斯拉前任和现任员工的姓名,以及公家电子邮件地址、电话号码、员工工资、客户银行等详细信息,甚至包括埃隆·马斯克(Elon Musk)自己的社会保险号。 一些文件还触及智能驾驶汽车、新电池开发或方案中的赛博电动皮卡等秘密信息。
特斯拉试图对安保揭发保密,特斯拉的一项外部政策,要求员工只能行动与客户沟通揭发的细节,而不能完全经过电子邮件书面报告。
德国和荷兰的数据维护部门曾经展开调查。 勃兰登堡州数据维护官员达格玛·哈奇(Dagmar Hartge)供认指控的严重性并强调:“假设证明状况失实,从数据维护的角度来看这件事情特别严重,同时全全球有很大一部分人遭到影响。 ”受影响的人不只是特斯拉在勃兰登堡州工厂的员工,还包括德国和欧洲其他地域的员工。
假设这种违规行为被证明,特斯拉将被处以相当于其年销售额4%的罚款,依据美国证券买卖委员会的数据,在2022年年底的收益报告中,特斯拉的支出约为815亿美元,因此特斯拉的罚款大约为35亿美元。
▍更详细的揭发内容
《商报》披露了揭发人走漏的外部文件的更多细节。
其收到的100GB的数据和个文件,包括3000个关于客户安保疑问的条目,以及1000多起撞车事故的描画。 其中有139起“异常紧急制动”报告和383起虚伪碰撞正告造成的“幽灵刹车”,即汽车在没有清楚要素的状况下突然刹车。
《商报》咨询了数十家公司,证明了这些揭发的合法性。 一名密歇根州男性报告称:“突然刹车很猛,就像你能想象的那样,我被推到安保带上,汽车简直停了上去,然后另一辆车从前面撞了我。 ”
此外,虽然一些司机安保控制了车辆,但也有一些司机“掉进了沟里,撞上了墙,或许撞上了迎面而来的车辆。”
除了向客户核实揭发,《商报》还向德国弗劳恩霍夫安保信息技术研讨所展现了这些文件,该研讨所得出的结论是,没有理由以为“这些数据集不是来自特斯拉的IT系统或特斯拉环境”。
走漏文件还提醒了特斯拉如何处置与客户和公司外部其他人的相关。 特斯拉外部规则,通常状况下,假设要求任何回应,就必需行动回答,什么都不能写在短信或电子邮件里。 员工们经常被劝诫只经常使用行动交流,不能把报告复制到电子邮件、短信或语音信箱中给客户。
一位来自加州的医生说:“他们从不发电子邮件,一切都是行动的。 ”她的特斯拉在2021年秋天自行减速,撞到了两根混凝土柱子上。
据《商报》报道,这些文件包括与客户沟通的“准确指点方针”。 员工原告知,除非有律师介入,否则他们不应该发送书面版本的评论,而是行动传递给客户。
有一些客户确实收到了书面回复,其中一位客户揭发“幽灵刹车”,原告知智能驾驶系统的行为“相对正常”,他应该重新阅读说明书。
常年以来,特斯拉不时试图掩盖客户对安保疑问的揭发。 早在2016年,美国国度公路交通安保控制局(NHTSA)就不得不宣布,客户可以发布安保疑问。 此前有报道称,特斯拉要求客户签署保密协议,才有资历取得有疑问的Model S悬架系统的维保。
这些文件或许会在目前针对特斯拉的非正常死亡诉讼中发扬作用,后者指控特斯拉的技术存在基本安保疑问,并或许促使州和联邦监管机构最终采取执行。
2021年,美国国度公路交通安保控制局采纳了相似客户关于异常减速的揭发,并将其归咎于“司机错误”。
美国安保监管机构对特斯拉的几项调查曾经继续了多年,其中包括对特斯拉汽车清楚倾向于撞上停在高速公路上的消防车、救护车和警车的调查。
加州机动车辆控制局(California Department of Motor Vehicles)正在调查,特斯拉价值1.5万美元的“完全智能驾驶”(FSD)选项的称号,能否违犯了州法律和加州自己的规则,即制止在非智能驾驶汽车的状况下将其宣传为智能驾驶汽车。 但是,调查启动了两年多照旧没有结果。
在中国,监管机构曾经在采取执行。 就在两周前,特斯拉自愿对其在中国销售的简直一切汽车紧急发布了软件更新,以处置异常突然减速的疑问。
自2016年以来,马斯克不时承诺成功真正的完全智能驾驶,但迄今尚未成功。
《商报》称,当面对泄密和安保疑问时,特斯拉的律师要求这家资讯机构向公司发送一份数据正本,并删除一切其他正本,并方案对“窃取秘密和团体数据”采取法律执行。
特斯拉以为,暴露事情的罪魁祸首是一名前员工,他在离任前下载了数据。 依据特斯拉控制顾问约瑟夫·阿尔姆(Joseph Alm)的电子邮件,该公司方案对这名前员工采取法律执行。
依据《商报》总编辑塞巴斯蒂安·马蒂斯(Sebastian Matthes)的一份说明,该媒体的编辑团队就收到的数据向特斯拉提出了几个疑问。 马蒂斯说,特斯拉没有回答他们的疑问,而是要求删除数据,并谈到数据被盗。
目前依然不知道是谁向《商报》提供了暴露的信息,事情还在继续发酵。以下是特斯拉对《商报》暴露事情的完整回应:
亲爱的lwersen先生,
依据您5月10日的邮件,您曾经通知我们,收到了被盗的特斯拉秘密信息,其中包括特斯拉和我们的商业同伴的商业秘密以及特斯拉员工的公家数据。
我们将继续调查您邮件中所述状况。 到目前为止,我们有理由置信,一名心胸不满的前雇员(……)在分开特斯拉之前,滥用他作为服务技术人员的访问权限,暴露信息,违犯了他签署的保密协议,违犯了特斯拉的数据控制政策和通常,也冒犯了欧盟和德国的法律。
特斯拉严厉维护秘密信息以及员工和客户的公家信息。 我们方案对这名前雇员提起法律诉讼,由于他窃取了特斯拉的秘密信息和员工的公家数据。 针对此事,我们还将与刑事当局协作。
要求廓清的是,您宣称的与您分享的信息,至少曾经违犯了特斯拉的保密协议和政策、数据控制政策和通常,以及欧盟和德国法律。 特斯拉将继续启动调查,并将对任何窃取、滥用或以其他方式,盗用特斯拉秘密信息或员工和商业同伴团体数据的人提起法律诉讼。
如您所知,除非有特殊状况,否则不支持经常使用合法失掉的数据启动媒体报道。 除其他事项外,在没有适当理由的状况下,拥有此类数据自身就违犯了数据维护法。 而对这些信息的不当处置,将使信息接纳者比如《商报》,承当违犯商业秘密、数据维护法和处置被盗数据等方面的责任。 您拥有的任何此类敏感数据也要求您小心维护,以免进一步被盗用。 鉴于此,请将此信息的正本发送给我们,并立刻删除一切其他正本,并与我们确认您曾经这样做了。
谨启!
特斯拉诉讼控制律师
2023年5月16日
▍为整个行业鸣警钟
特斯拉作为电动汽车行业先驱,被曝出少量数据暴露事情,在科技界掀起了轩然大波。 这起事情不只仅是特斯拉的冰山一角,还清楚地提示我们,在人工智能和自主系统范围,迫切要求增强监管。
暴露数据提醒了对特斯拉智能驾驶系统的少量安保揭发,引发了对智能驾驶汽车全体安保性的质疑。 揭发范围从突然减速疑问到制动疑问,描画了潜在系统缺点这一令人担忧的画面。
它的影响是深远的,假设被以为是未来交通工具的智能驾驶汽车,由于系统缺陷而引发事故,人们将看到汽车行业的严重曲折。
这曾经不是第一次性有
版权声明
本文来自网络,不代表本站立场,内容仅供娱乐参考,不能盲信。
未经许可,不得转载。