找回密码
 立即注册
首页 业界区 安全 读数据科学伦理:概念、技术和警世故事12结论 ...

读数据科学伦理:概念、技术和警世故事12结论

喙审 2025-5-31 22:59:06

1. 管理方式

1.1. 设立伦理监督委员会

  • 1.1.1. 设立一个道德监督委员会,由其负责制定公司希望在所有阶段遵守的伦理原则
  • 1.1.2. 有原则的政策应该指导可能出现的伦理问题
  • 1.1.3. 委员会成员应富有学识、肯花时间,并得到公司内部的认可
  • 1.1.3.1. 委员会应包括来自所有利益相关者的代表,业务、数据、模型主体(尤其是受负面影响的人)和数据科学家均可
  • 1.1.3.2. 委员会成员的角色、专业背景、性别、文化和年龄越多元化,就越有可能发现潜在问题
  • 1.1.3.3. 高级管理层应参与其中,以确保委员会获得适当的资源和时间,同时展示高级管理层对公司数据科学伦理的责任,以及科学数据伦理对公司的重要性
  • 1.1.3.4. 外部成员和思想领袖可以提供更深层的见解
  • 1.1.4. 委员会应该培养一种开放的讨论文化—多角度考虑问题、成员各抒己见,从而选择中庸之道
  • 1.1.5. 所有员工都应该乐于向委员会提出潜在问题,如有需要,可以匿名反馈
  • 1.1.6. 委员会应该公开汇报委员会成员、选举过程、所作决策,以及他们担任的角色
  • 1.1.7. 为了进一步确保独立性,委员会成立了一个信托基金,以保障委员会的独立性,并确保其有效运作
1.2. 制订方针

  • 1.2.1. 什么才是合乎伦理的
  • 1.2.2. 此类政策可以用于培训为员工提供指导,并为可能会发生的违法行为提供补救措施
1.3. 实施政策

  • 1.3.1. 实施政策的第一要义是让员工了解方针的存在
  • 1.3.2. 可以把它们包含在新员工签署的初始政策(类似于信息技术政策)中,以及针对员工的职位和背景定制的建立伦理思维的培训
  • 1.3.3. 为确保问责制从理论到实践层面的实行,应采取有效明显的措施
  • 1.3.4. 沟通是达到这一效果的关键,沟通形式从公司活动演讲到博客文章均可
  • 1.3.5. 需考虑如何与外部利益相关者沟通相关原则和实践,以及他们如何获取所需的反馈(例如对预测的解释)或提供意见
2. 人工智能带来的非预期后果

2.1. 数据科学模型的表现与预期不符

  • 2.1.1. 通常与其机器人和环境之间相对简单的互动有关,导致复杂、非预期的总体行为状况
  • 2.1.2. 人类和自动机器人均在对在线百科全书平台维基百科的文章进行修改
  • 2.1.2.1. 有些机器人会通过撤销对方的编辑来破坏彼此的工作,最普遍的操作是在维基百科网页上创建和修改不同语言版本的链接
  • 2.1.3. 金融界也在使用算法进行高频交易
  • 2.1.3.1. 算法交易约占美国股票交易量的70%
  • 2.1.3.2. 短期的算法交易被称为高频交易
  • 2.1.3.3. 尽管人们质疑此类算法可能会引发闪电崩溃,但它们可以增强此类非预期事件的影响力
  • 2.1.4. 推特的种族主义机器人“Tay”
  • 2.1.5. “杀死所有人类”公式所示
2.2. 对人类产生意想不到的影响

  • 2.2.1. 由于经济引入创新技术而导致人们对失业的担忧的案例屡见不鲜
  • 2.2.1.1. 技术性失业
  • 2.2.2. 某些人遭受(经济上甚至医学上的)间接伤害
  • 2.2.2.1. 受无人驾驶技术冲击的司机行业
  • 2.2.2.2. 受到冲击的不仅是专注于日常任务的工作,还包括驾驶和手术等非常规的人工作业,甚至有法律和金融服务,或欺诈检测等非常规认知作业
  • 2.2.2.3. 当前情况的特殊之处在于对非常规岗位(例如审核员或放射科医师)的影响
  1. >  2.2.2.3.1. 这些工作可能不会彻底消失,但工作内容肯定会消失,他们更多的是成为机器和模型主体(例如患者或被审计的公司)之间的桥梁
复制代码

  • 2.2.3. 许多目前由人类完成的任务在未来可能会被智能机器人和数据科学系统代替
  • 2.2.3.1. 它们会带来提高生产力、安全系数甚至是整体收入的积极影响,但是也会导致极具破坏性的消极影响
  • 2.2.4. 历史也表明,创新其实会引发就业净增长
  • 2.2.4.1. 在未使用自动化的领域,员工的生产力会提高
  • 2.2.4.2. 生产力的提高会增加整体的经济蛋糕
  1. >  2.2.4.2.1. 收入越多,消费能力就越强,也就会产生更多的工作
复制代码

  • 2.2.4.3. 创新带来了新的就业机会
  • 2.2.4.4. 净增加的工作岗位并不是均匀分布在所有人口群体中,一个人的生活可能会因失业遭到巨大破坏
  • 2.2.5. 解决策略
  • 2.2.5.1. 培训
  1. >  2.2.5.1.1. 当务之急是重新培训失业工人>  2.2.5.1.2. 未来有用的技能很可能是那些难以进行自动化、只与机器协作的技能,包括应用专业知识、与利益相关者互动、应用情感和社交技能以及创造力等高级认知技能>  2.2.5.1.3. 提供激励措施(补贴、减税或制订培训计划)​,以促进员工的再培训和提高员工的技能
复制代码

  • 2.2.5.2. 提供全民基本收入
  1. >  2.2.5.2.1. 由于即将面临失业,有保障的基本收入为失业者重新掌握技能创造了时间,并为其应对技术影响提供了安全缓冲
复制代码

  • 2.2.5.3. 乐观地接受机器将取代我们的观点,并学会享受随之而来的失业自由
  1. >  2.2.5.3.1. 人工智能的产生能让人们有更多的时间去娱乐,去享受生活>  2.2.5.3.2. 我们不需要很多工作,我们需要的是让人们感到快乐的工作
复制代码

  • 2.2.6. 数据科学可能对我们的经济和社会产生巨大的积极影响,但由于自动化程度加深,也将对全球劳动力带来严重的消极影响
3. 结论

3.1. 数据科学已经对公司和个人产生了巨大的积极影响,正迅速成为所有公司的标准工具(除少数公司外)​
3.2. 在数据科学技术前沿工作的人必然会面临伦理问题

  • 3.2.1. 会带来严重的、意外的负面影响,让我们付出巨大的代价
  • 3.2.2. 什么是正确的平衡,什么是合乎伦理的,取决于环境
  • 3.2.3. 使用什么数据,如何收集和进行预处理,之后适用于何种应用和建模?
3.3. 公开讨论数据科学伦理

  • 3.3.1. 不要羞于公开讨论数据的效用
  • 3.3.2. 为了避免担心说错话,可以在讨论中指出具体的观点:不管实际意见是什么,有些人会支持数据的效用,而其他人支持隐私和公平
  • 3.3.3. 从公司层面来看,未来的非财务报告和标准也可能包括数据科学伦理
3.4. 掌握数据科学伦理并不简单

  • 3.4.1. 我们必须要进行学习,付出大量的时间和精力才行
  • 3.4.2. 我们不仅要进行公开讨论,还要了解潜在的问题和概念,并掌握可能相关的现有技术
  • 3.4.3. 高级管理层对投资数据科学伦理的承诺和认可,其重要性就显得至关重要
  • 3.4.4. 在用现在的见解判断和讨论历史案例和警世故事时,态度要保持温和
  • 3.4.5. 伦理不是一成不变的,会随着时间、地点和应用而变化
3.5. 数据科学伦理并非不使用数据

  • 3.5.1. 注重伦理并非不使用数据工作
  • 3.5.2. 仅关注隐私或公平,可以有效地保护某些利益相关者(如数据主体)的权利,但是我们应该在过度和不足之间的平衡点讨论这个问题
3.6. 数据科学伦理不仅仅是一张清单

  • 3.6.1. 由于对伦理的定义具有动态性和主观性,常规的清单必然无法考虑到某些情况
  • 3.6.2. 清单是极具价值的
3.7. 数据科学伦理可以创造价值

  • 3.7.1. 数据科学伦理有助于规避某些成本:名誉损失以及随之而来的潜在的法律和经济成本
  • 3.7.2. 数据科学伦理也有助于获取价值
  • 3.7.3. 选择一个合适的隐私保护数据挖掘装置,也可以建立更理想的模型
  • 3.7.4. 合乎伦理的数据科学甚至可以成为一种营销工具,以此吸引消费者或向上销售
  • 3.7.5. 需要让大家看到数据科学伦理的积极性,而不是使之成为为了规避某些成本而必须遵守的卑鄙手段
  • 3.7.6. 在你的下一份数据科学报告、演示或电子邮件中,不要回避伦理话题,因为这可能会引发新的讨论
3.8. 数据科学伦理的未来发展一片光明

  • 3.8.1. 数据在我们的社会中举足轻重,这是不可逆转的潮流
  • 3.8.2. 尽管我们经常面临数据泄露、隐私问题和歧视等问题的争议,但数据科学似乎正在向着正确的方向发展

来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
您需要登录后才可以回帖 登录 | 立即注册