计量系统接入AI,发生事故,谁的责任?
如果训练出一个自动审核,审批的AI大模型,如果出错了,最终算谁责任。 向AI追责就是在推卸责任!! 某人拿菜刀砍人了,菜刀的责任? 本帖最后由 stsfhfh 于 2025-3-20 08:18 编辑没错,责任永远是自然人的,如果没有自然人,那就任何人没责任了,负责这个事本就是自然人自己制定的。比如:一打井队开采地热井,结果导致周边底下岩层发生突变,致使地面下沉,周边楼房倾斜。这是谁的责任?表面上是人的,但是一旦是自然人的,那就牵扯着背后无数链条,无数官商,无数人都得负责,所以只能说是天灾导致的地质突变,非要负责的话就着老天吧 AI是工具,责任在于训练、管理AI的人 不能向AI追责,是人的责任。 基本上就是人的责任 这就相当于自动驾驶,目前还没有哪家能做到完全脱离驾驶员,出了事故车主首先跑不掉的。 如果都算人的责任,就不会有L3L4L5级的驾驶系统了 人的责任,自动审核完了,不再确认一下? AI在使用时就告诉你了,对正确不负责。 我认为是AI的责任。如果AI也是由人的算法决定的,还不智能,那就是算法那个人的责任,如果AI是完全智能化的,那他就算是一个独立的人,那就是AI的责任。 绝对是人的责任,AI是由人进行授权后才会进行操作,AI没有自然人的权利,同样也没有义务
首先定义AI的能力范围,什么程度的AI。 本帖最后由 text 于 2025-3-27 09:02 编辑
昨天看了一个新闻,自动驾驶L3以上,出车祸是追究自动驾驶系统方的责任不是驾驶员了
也就说未来如果使用了ai审批证书,法律允许的情况,应该是单位的问题而不是个人的问题了。 根据计量思维,在未来某天,会出现对AI的计量和检定,判断某个节点或者参数,这个节点是判定AI是否能作为责任方的依据。所以说抛开剂量谈危害都是片面的。最终的结论是由某个判断点划定的。 AI智能辅助,不可能全部由AI来计量,计量过程中操作人员负者 再AI,也要人的审核啊 一个人拿刀s人了,是他的责任没毛病吧,但是如果他设置一个精密的陷阱s人,难道说是陷阱的责任吗?ai目前本质上还是沿着你设定的方向走,所以只要是你设定的,就是你的责任,如果全自动,加载之后一直没动过,那就是写程序的人的责任,ai只是一个工具 ai式中不靠谱 人的责任,人要审核的
页:
[1]