滚动新闻

不可盲目相信AI!施耐德电机吁企业发展人工智能应符合3准则、2关键


  现正处于AI发展史上的关键时期,人类以前所未有的规模和速度在各个领域应用AI技术。 随着AI使用日渐普及,社会上兴起关于伦理、责任、信任的讨论,企业也需在使用AI提升效率的同时做好风险管理。 尤其现阶段AI仍有诸多不完善之处,例如图像辨识无法精确判别差异、以及招聘建议可能含有偏见等种种例子显示人们并不能完全信任AI。 能源管理及自动化领域的数字化转型品牌法商施耐德电机Schneider Electric建议企业在开发与使用AI时,应坚持遵守三项准则。

  第一、符合法律与规范:如施耐德电机拥有完善的网络安全政策,符合ISO/IEC 29147和ISO/IEC 30111的标准,同时积极参与AI法律的制订,并承诺完全遵守相关法规。 第二、符合道德与信任守则:施耐德电机以最高标准的道德与信任,对减少碳排与降低能耗做出承诺,而将AI导入解决方案时,也以同样高标准的道德与信任作为原则。 第三、符合内部政策与流程:施耐德电机拥有数字风险与数据管理主管负责AI项目,并成立RAI工作小组跟进欧洲与美国最新的AI法案,持续关注伦理议题。

  此外,施耐德电机也指出,上下文情境、数据来源、解释方式都可能导致AI产生的结果有偏误或偏见,这让AI信任议题变得极为复杂。 以机器学习来说,就算风险与其他数字技术类似,但由于系统更加复杂,风险的规模便更大、更难避免、更难追踪、更难解释。 若想克服这些挑战,可藉由专业知识和AI专家、风险预测,以建立可信任的AI。

  施耐德电机提到,在专业知识和AI专家方面,AI应用将对人类产生深远的影响,因此AI专家和数据科学家往往要担任道德的守门员,他们检测偏见、建立回馈循环、检验运行异常以避免资料下毒攻击。 在发展与应用AI时,企业必须选择有价值的案例、挑选和清理数据、测试模型并控制其行为,这些都需要大量的专业知识与技术。 若是出现异常,模型需要重新学习,以改善系统并避免使用特例数据而引发偏见。

  风险预测预测部分,施耐德电机则说,目前多数的AI监管都以风险预测为基础,从设计阶段开始,就必须考量错误或异常数据、网络攻击可能导致的问题,并预测潜在后果。 藉此,AI专家能及早采取相关动作来降低风险,例如改善训练AI模型的资料库、检测数据漂移,尽可能做好防护措施。 另外,若AI的信心水平低于一定值,团队也务必确保人类参与关键决策。

  施耐德电机强调:「人们不能盲目相信AI,企业也要选择具有专业知识且可信任的AI供应商合作」,确保服务符合最高标准的伦理道德、数据隐私、网络安全。 施耐德电机提供关键设施的解决方案,包含国家电网、核电厂、医院、污水处理等,因此深知道德与信任的重要性,作为一家可信任的企业、持续开发可信任的AI解决方案,并以同样负责任的方式导入AI,确保服务与产品兼具安全、高效、可靠、公正、隐私。 欲了解更多AI解决方案的信息,请见施耐德电机官方网站。