你可能在人工智能平台上提交的数据集也是如此:你的吗?它们会使潜在的竞争对手受益吗? 除此之外,还有人工智能模型透明度的问题。随之而来的是将越来越重要的任务外包给复杂的人工智能模型的风险。事实上,它们可能成为“黑匣子”,做出难以理解的决策,或由于训练数据而产生偏差的结果。 假设您对结果没有任何问题。
您会冒险依赖一项您无
法用广义术语解释其工作原 电话号码库 理的服务吗?而且您无法停止使用,否则将失去一切?在这里,我们遇到了另一个问题——可逆性。 例如,如果人工智能服务认为派对已经结束,它长期亏本投资的基础设施现在必须盈利,因此它利用其垄断地位和你的依赖性以不合理的方式提高费率,你当然可以取消该服务。但这样一来,你将失去数据训练和/或模型专业化的结果,并且必须从头开始。
在目前缺乏不同人工
智能服务之间可移植性/互操作性标准的情况下,这个问题至关重要——尤其如此,因为目前,虽然开源很受欢迎,但专有模型占绝大多数。 这些问题没有简单的答案。这是因为人工智能的发展目前非常经验主义,基于反复试验的模型,没有训练数据或模型修改的可追溯性。 顺便说一句,这使得人工智能系统结果的“可解释性” [12] 成为一个真正的挑战,尽管《人工智能法案》确立了这样做的义务(见下文)。
独立人工智能高
级专家组 (AI HLEG) 在 2019 年的一篇论文[13]中提到,开发“值得信赖的人工智能” 或许是一个值得关注的方向。它定义了值得信赖的人工智能有三个主要目标,OVHcloud 旨在帮助您实现这些目标:人工智能必须合法(立法或监管方面)、合乎道德(尊重道德规范)和稳健(从技术和社会角度来看)。
与此同时,确保迅速
遵守国家、欧洲和国际层面的 监管规定 在动态的数字营销世界中 是促进更绿色商业实践的有力杠杆,同时又不会损害追求创新的未来前景。 1/ 遵守当前和未来的法规 欧盟迅速对人工智能的民主化作出了回应,于 2021 年 4 月 21 日提出了有关该主题的欧洲法规草案。2024 年 3 月,《人工智能法案》正式通过。现在,它适用于欧盟使用的所有服务,无论提供商是否是外国的。
该法律将人工智能系
统分为四类,考虑到它们对欧盟 ca 细胞数 基本权利以及个人、团体、社会和文明安全的影响。每个风险类别都有相关的禁令[14] 和义务,范围从环境可持续性到安全性,包括标记人工智能生成的内容。 在线“合规性检查器”可让您快速了解这项欧洲人工智能法规对您的项目的适用程度 其他国家和欧洲关于个人数据保护的法规(例如 GDPR)已经适用于您的 AI 项目,要求公司对在欧盟以外托管和传输个人数据负责。
顺便说一句,那些抱
怨监管过于繁琐,而美国却放任自流,中国却征服精神的人,其实是大错特错:缺乏真正的欧洲单一市场才是欧洲创新差距的更大因素[15] 。同样,政府对公共采购的支持力度不够,或者政府发出的难以理解的信息也同样如此,他们声称希望依靠外国利益相关者的投资来开发主权解决方案。[16] 还值得注意的是,《人工智能法案》规定,国家主管部门(英国为 ICO)[1] 可以建立“监管沙盒”,即在有限时间内测试创新技术的受控环境,以确保人工智能系统的合规性,不延误任何潜在的市场投放,中小企业和初创企业可以优先使用这些沙盒。