毫无疑问,人工智能 May 16, 2024 1:31:08 GMT -5 Quote Select PostDeselect PostLink to PostMemberGive GiftBack to Top Post by ratna568 on May 16, 2024 1:31:08 GMT -5 提供的见解非常有益,但我们也必须认识到人工智能在提供完美答案方面的局限性。围绕数据质量、安全和隐私的问题是真实存在的,在这些问题得到解决之前,关于人工智能监管的争论将继续下去。是什么阻碍了人工智能的发展?当算法由于开发过程中的错误假设而产生有害结果时,人工智能偏见是必须克服的主要障碍。人工智能偏见通常是由创建程序或选择训练数据的人的无意识偏好“内置”的。整个过程中也可能会出现问题,例如在数据收集阶段,加权程序可能会导致对某些数据集得出错误的结论。随着我们越来越依赖人工智能,偏见是一个真正令人担忧的问题,而且我们已经看到一些法律案例出现,其中团体强迫披露算法过程如何做出决策。这种情况的一个例子是没有获得绩效奖金的教师。当发现评估奖金资格的算法没有考虑班级规模时,他们获得了损害赔偿——这一因素被发现对学生的成绩非常重要。除非人工智能偏见得到解决和消除,否则公众对人工智能的信任预计仍将是一个问题,并且可能会出现更 葡萄牙 电话号码 多法律案件,因为组织和个人寻求人工智能决策方式的完全透明度。偏见会渗透到人工智能流程的什么地方?人工智能偏见的困难在于,很难准确确定它进入系统的位置。偏差可能出现在学习过程的任何阶段,并且并不总是仅与训练数据相关。它们也可能出现在数据收集、目标设定或准备数据以供学习或利用的过程中。数据收集、选择和清理的初始过程通常与人工智能偏见相关。在这个早期阶段,如果异常数据被认为是不相关的并且没有经过彻底测试,则可能会出现偏差,从而导致意外引入偏差。因此,人工智能可能会错误地偏向某些因素,例如性别。例如,如果一家成功的男性主导的公司使用人工智能来筛选候选人,并且人工智能是根据现有员工的简历和就业数据进行训练的,那么它很可能会对男性产生偏见。她可能不会考虑女性应聘者参加面试,因为她们不符合公司目前存在的成功模式。在这方面应谨慎行事,因为从培训数据中删除员工性别等简单解决方案可能无效。相反,人工智能算法可以识别男性主导的爱好模式,作为理想员工的指标。设置深度学习模型的目标也可能会导致偏差,但管理流程的人员可以通过设置上下文目标来避免这种情况,从而准确生成建议。最后,在数据处理准备阶段也可以引入偏差。这通常会导致算法的某些属性比其他属性更受青睐。准确执行此步骤至关重要,因为选择考虑或忽略哪些属性将对结果的准确性产生重大影响。