Post by account_disabled on Dec 4, 2023 8:42:43 GMT
道德技术:企业日益增长的需求 西蒙娜· 康蒂尼 暂无评论 31 十月 道德技术 道德技术的重要性 以及引导创新朝着正确方向发展的新方法的需求很快就得到了关注,而不仅仅是监管机构。 让我们立即从一些 具体示例开始,以给出该主题的正确维度。 《纽约时报》最近 对智能手机上安装的应用程序如何收集位置数据进行了一项调查 ,揭示了为什么业界必须承认 编要。 再说一遍:去年成立了 人道技术中心,该中心由“深切关注的技术内部人士”组成,旨在 重新引导技术的发展方向,使其更好地 与人类保持一致。 再说一遍:今年 4 月,欧盟 发布了 实现“值得信赖”人工智能 (AI) 的 指导方针,这是围绕技术发展 设置“道德护栏”的里程碑。 因此,为了用户的利益,开发技术的公司必须努力 提高 对其潜在风险的认识,并诚实地了解其创新如何使用人们的数据。 特别是,企业必须 在公司各个层面灌输强烈的道德规范,制定企业透明度计划,并雇用多元化的团队来互动、创建和改进这些技术。 伦理与技术:相遇的故事 今年3月,“人工智能”一词的发源地斯坦福大学成立了 人类人工智能研究所(HAI) 。这是一个智库,其使命是“推进人工智能研究、教育、政策和实践,以改善人类状况”。 行业巨头也开始行动。 例如,谷歌和微软在过去一年都发布了 人工智能 开发 和 使用的道德原则 。 对该行业现状的真正 重新评估正在进行中,同时也衡量了消费者信心。消费者对科技的态度似乎已经到了一个转折点。
由于以下原因,对数据隐私和技术依赖的担忧有所增加: 数据滥用; 侵犯隐私丑闻; 越来越多的证据表明技术对心理健康的影响(包括世界卫生组织在 2018 年公开将 游戏成瘾归类为心理健康障碍 )。 随着人工智能变得越来越强大 并将其影 工作职能邮件数据库 响范围进一步扩展到我们的生活,消费者 也越来越 认识到 它给人类带来的风险。 尽管一些科技公司能够进行自我监管,但很明显, 大规模干预 对于进一步接近道德技术非常重要。最重要的是,能够回应 消费者对技术风险日益增长的担忧,这表明我们将客户和全人类的利益放在心上 以人为本,而非技术 技术调整的核心是 从以技术为中心的方法到以 人为中心的方法的 范式转变。 科技公司长期以来一直陷入 激烈的竞争 ,以生产采用最新技术的新产品,这些产品的设计主要是为了 最大限度地提高使用率。但是,解决一些技术突出问题(从技术成瘾到其在社会孤立中的作用)的道德方法将要求公司暂停 片刻,质疑 其创新对其用户和社会福祉的长期影响。社会。 有些人已经开始这样做了。 今年 2 月, OpenAI (一个致力于正确和负责任地开发人工智能技术的开源平台)出人意料地宣布“不发布”,从而迈出了道德技术的一步。 由于担心其技术 经常被滥用 来制造假新闻,该研究公司宣布不会发布产品开发信息。 还值得注意的是,除了道德之外,技术驱动的方法越来越不符合 消费者对技术情绪的变化。GfK Consumer Life的全球研究 表明,“提供问题的解决方案”已经超过了“利用最新技术”。
这才是消费者真正的创新。 像“负责任的计算机科学挑战赛”这样的倡议 ——向采用创新方法在计算机科学的同时教授伦理学的大学提供高达 350 万美元的奖励——正是认识到 从一开始就将伦理学培训融入 研究过程的 必要性。 道德技术的未来?透明度! 最近的事件证实,商业界构建和部署人工智能等数据技术的方法必须仅关注 道德和责任。 开发技术和应用程序的组织必须将这两个原则纳入开发中。一家在道德上不谨慎的公司,从而失去用户的信任,可能会 造成多米诺骨牌效应 ,使消费者在更大范围内失去对该技术和任何利用该技术的公司的信任。 企业必须制定 将人考虑在内的内部原则和流程 ,从董事会到最新员工。这些安排应 规范商业实践 ,并透明地展示公司 对道德技术的承诺。 这就是为什么许多公司 甚至在推出基于人工智能的产品之前就引入了道德准则来解决问题。 综上所述 随着技术的不断进步,考虑 这些变化的伦理影响的需要 成为技术发展的关键部分。 我们面临着 日益根深蒂固的变化 ,其中包括技术的采用: 更多道德; 管理透明; 由高度负责的人——从业务开发人员到首席执行官,再到董事会。 在Laya,我们从一开始就信奉这一理念:我们以清晰透明的方式分享我们如何使用和处理数据。事实上,我们认为技术应该成为推动者,它应该支持人类活动而不是指导人类活动。 Laya 的透明度涉及我们所做的一切,从企业承诺到我们使用的每一个工具。如果您想了解更多信息。
由于以下原因,对数据隐私和技术依赖的担忧有所增加: 数据滥用; 侵犯隐私丑闻; 越来越多的证据表明技术对心理健康的影响(包括世界卫生组织在 2018 年公开将 游戏成瘾归类为心理健康障碍 )。 随着人工智能变得越来越强大 并将其影 工作职能邮件数据库 响范围进一步扩展到我们的生活,消费者 也越来越 认识到 它给人类带来的风险。 尽管一些科技公司能够进行自我监管,但很明显, 大规模干预 对于进一步接近道德技术非常重要。最重要的是,能够回应 消费者对技术风险日益增长的担忧,这表明我们将客户和全人类的利益放在心上 以人为本,而非技术 技术调整的核心是 从以技术为中心的方法到以 人为中心的方法的 范式转变。 科技公司长期以来一直陷入 激烈的竞争 ,以生产采用最新技术的新产品,这些产品的设计主要是为了 最大限度地提高使用率。但是,解决一些技术突出问题(从技术成瘾到其在社会孤立中的作用)的道德方法将要求公司暂停 片刻,质疑 其创新对其用户和社会福祉的长期影响。社会。 有些人已经开始这样做了。 今年 2 月, OpenAI (一个致力于正确和负责任地开发人工智能技术的开源平台)出人意料地宣布“不发布”,从而迈出了道德技术的一步。 由于担心其技术 经常被滥用 来制造假新闻,该研究公司宣布不会发布产品开发信息。 还值得注意的是,除了道德之外,技术驱动的方法越来越不符合 消费者对技术情绪的变化。GfK Consumer Life的全球研究 表明,“提供问题的解决方案”已经超过了“利用最新技术”。
这才是消费者真正的创新。 像“负责任的计算机科学挑战赛”这样的倡议 ——向采用创新方法在计算机科学的同时教授伦理学的大学提供高达 350 万美元的奖励——正是认识到 从一开始就将伦理学培训融入 研究过程的 必要性。 道德技术的未来?透明度! 最近的事件证实,商业界构建和部署人工智能等数据技术的方法必须仅关注 道德和责任。 开发技术和应用程序的组织必须将这两个原则纳入开发中。一家在道德上不谨慎的公司,从而失去用户的信任,可能会 造成多米诺骨牌效应 ,使消费者在更大范围内失去对该技术和任何利用该技术的公司的信任。 企业必须制定 将人考虑在内的内部原则和流程 ,从董事会到最新员工。这些安排应 规范商业实践 ,并透明地展示公司 对道德技术的承诺。 这就是为什么许多公司 甚至在推出基于人工智能的产品之前就引入了道德准则来解决问题。 综上所述 随着技术的不断进步,考虑 这些变化的伦理影响的需要 成为技术发展的关键部分。 我们面临着 日益根深蒂固的变化 ,其中包括技术的采用: 更多道德; 管理透明; 由高度负责的人——从业务开发人员到首席执行官,再到董事会。 在Laya,我们从一开始就信奉这一理念:我们以清晰透明的方式分享我们如何使用和处理数据。事实上,我们认为技术应该成为推动者,它应该支持人类活动而不是指导人类活动。 Laya 的透明度涉及我们所做的一切,从企业承诺到我们使用的每一个工具。如果您想了解更多信息。