找回密码
 立即注册
首页 业界区 安全 读心与芯:我们与机器人的无限未来07机器人的风险 ...

读心与芯:我们与机器人的无限未来07机器人的风险

连热 8 小时前

1. 机器人的风险与容错机制

1.1. 白帽黑客

  • 1.1.1. 发现网络安全漏洞的专家,帮助制造商和供应商修复缺陷并提高防御能力
1.2. 随着更先进的汽车和半自动驾驶汽车以及各种机器人的普及,一些风险也会出现

  • 1.2.1. 计算机遭受的网络攻击,机器人也容易遭受,甚至会遭受得更多,因为它们在物理世界中活动
  • 1.2.2. 在传统网络安全中,不存在完美的或万无一失的解决方案,计算机或网络没有坚不可摧的安全边界,同样的规则也适用于机器人内部的计算机
  • 1.2.3. 2019年,网络安全成为价值1500亿美元的全球产业,主要涵盖静态或移动计算机和网络计算机
1.3. 机器人更智能、更快、更强、更有能力,因此我们要更努力地工作,想象所有可能出现的危险、风险和问题,在大型项目或机器人及其能力开发项目的整个生命周期中持续关注这些隐患
1.4. 机器人会犯错

  • 1.4.1. 机器会精准地执行程序,但如果程序有缺陷,或遇到某种未被编程的情况,存在感知错误,或控制系统有很小的误差,机器就会表现出我们认为的错误举动
1.5. 问题是机器犯的错与人类不同

  • 1.5.1. 即使特斯拉已经将艾萨克·阿西莫夫机器人三定律中的第一条(即机器人不得伤害人类)改编并编码到汽车中,也无法保证悲剧不会发生
  • 1.5.2. 机器人的大脑犯了一个错,那是人类永远都不会犯的错
  • 1.5.3. 特斯拉永远不会在开车时睡着,永远不会在开车前去酒吧贪杯,也不会在发短信时将注意力从路上转移开
1.6. 将更多智能机器人带入世界需要平衡、揭示和识别人机差异,确定我们对机器人错误和缺陷的容忍度
1.7. 必须确保人类在设计机器人的决策模块时发挥积极的作用,这样,当机器犯错或执行我们不喜欢的操作时,我们就可以用人类的语言解释其逻辑

  • 1.7.1. 需要确保芯片有心
1.8. 电车难题

  • 1.8.1. 机器人如果有强大的感知和控制能力,就不需要选择,因为它会提前感知到老人和儿童,并且有能力停下来
  • 1.8.2. 可能会考虑制定道德准则来影响自动驾驶汽车的决策,甚至将这一道德准则传达给所有车辆用户
  • 1.8.3. 机器人就不会“像机器人一样”做决定,而会表现得更像有深度思考能力的伦理学家和在其人工大脑中编写推理模块的人类
  • 1.8.4. 杀人永远不会是一种选择
1.9. 总会有一些问题、危险和错误是我们无法预见的,因而无法提前计划和防范,但我们仍需尽最大努力,富有创造性地通盘考虑所有可能出错的问题
1.10. 政策明确了技术应遵守的商业和社会契约,只有在配套政策的支持下,技术才能成功地融入社会
1.11. 机器人是工具,本质上没有好坏之分,重要的是我们选择如何使用这个工具

  • 1.11.1. 任何人都可以购买无人机,但不同国家的无人机使用规定各不相同
  • 1.11.2. 管理方式还取决于无人机飞行是为了娱乐还是出于商业目的
1.12. 在战争中,一方想掌控和影响有关冲突的叙述,因而限制公民获得公正的新闻和信息,入侵的真实故事就会被掩盖

  • 1.12.1. 一群飞行数字投影仪在建筑物和墙壁的侧面播放视频,让所有人都能看到
  • 1.12.2. 如果我们安排的飞行器足够多,就无法被全部关闭
1.13. 不能等待所有技术人员忍受改变生活的痛苦经历,也不能期待所有人从善良的目的出发利用研发成功、进入市场的智能机器

  • 1.13.1. 能做的是更审慎地思考各种后果,制定防范措施,确保它产生积极的作用
  • 1.13.2. 不一定能控制智能机器的使用方式,但可以做更多的事情来影响其制造者
1.14. 帮助领导者了解机器人和其他人工智能增强的物理系统的局限、优势和可能性,即它们能做什么、不能做什么,应该做什么、不该做什么,以及我认为它们必须做的事
2. 聆听来自社会和世界各领域的声音和思想

2.1. 学术界
2.2. 技术专家:他们了解基础科学和工程学,了解机器人当前的能力和未来的潜力
2.3. 安全专家:他们了解网络安全的最佳做法和方法,以及如何将其应用于机器人技术
2.4. 白帽子:他们拥有黑客技能和创造力,能发现可能存在的漏洞
2.5. 政策制定者:他们能想象地方政府、州政府、联邦政府及机构如何看待构想中的新技术
2.6. 犯罪学家或心理学家:他们受过训练且经验丰富,可以想到恶意者如何利用机器人为非作歹
2.7. 科幻小说作家、电影制片人、艺术家和其他创意人士:他们的预测富有想象力,能够想象出各种不同的未来,以及技术可能对世界产生的影响
2.8. 伦理学家:他们能引导和塑造智能机器及其制造者的行动和决策
2.9. 经济学家:他们拥有技能和知识,能预测哪些措施可确保技术长期惠及普罗大众,而不仅仅是富人
2.10. 投资者:他们愿意提供反馈信息,说明项目开发能否筹集并维持足够的资金,或者如何在早期阶段做到这一点

  • 2.10.1. 机器人项目的成本可能很高
  • 2.10.2. 有前途的机器人项目会因资金不足陷入停滞
2.11. 考虑律师、保险专家和其他人的意见
3. 希波克拉底誓言

3.1. 出自早期的希腊医学课本,可能是哲学家希波克拉底所写,也可能不是,它经历了几个世纪的演变
3.2. 从根本上讲,它是医生应遵守的医疗道德标准

  • 3.2.1. 其中最著名的承诺是不伤害病人,或避免有意的不道德行为
3.3. 科学从根本上讲是对知识的追求,从这个意义上说,它是纯粹的
3.4. 在机器人和人工智能领域,我们正在构建对世界、对人类和其他生命形式产生影响的事物

  • 3.4.1. 在某种程度上,该领域与医学相似,因为医生是利用训练得来的知识直接影响病人的生活
  • 3.4.2. 要求技术人员背诵机器人领域的“希波克拉底誓言”可能是推动该领域朝正确方向发展的一种方式,也许可以作为一种方法,阻止那些出于邪恶目的开发机器人或人工智能的个人
3.5. 机器人使用方式的好坏取决于你的立场

  • 3.5.1. 坚决反对赋予武装机器人或武器化机器人自主权
  • 3.5.2. 希望机器人永远不会被用来伤害任何人
4. 机器人改变的工作格局

4.1. 新的人机合作提高了工作效率,公司将流程的部分控制权还给了工人
4.2. 机器人会产生积极的影响,但很多人仍担心它们会对人类劳动力构成威胁
4.3. 更多的机器人带来了更多而非更少的就业机会

  • 4.3.1. 很多孩子将来可能从事的是尚未发明的工作
4.4. 自动化的影响取决于工作类型

  • 4.4.1. 技术并不能使工作自动化
  • 4.4.2. 技术使任务自动化
4.5. 技术解决方案最适合自动化数据任务和可预测的体力工作任务
4.6. 对机器人和岗位的担忧并不完全涉及未来的工作,因为我们并不是在问工作是否有未来
4.7. 机器人可以填补劳动力市场的特定缺口,增强人们的能力

  • 4.7.1. 机器人可以填补劳动力市场的特定缺口,增强人们的能力
  • 4.7.2. 从技术上讲,机器代替人类是不可能的,也不是机器人专家想要的
  • 4.7.3. 完成的是一项由于劳动力短缺而搁置的任务
4.8. 人机分工的依据是二者的优势和劣势

  • 4.8.1. 机器擅长在大数据集里快速处理和发现模式,移动的精确性比人高,力量也比人大
  • 4.8.2. 由于数据量非常大,机器学习引擎可以生成人类难以发现的洞见
  • 4.8.3. 与机器人合作,工作和生活的许多方面都能得以完善和增强
  • 4.8.4. 未来应该由人与芯片共同塑造,二者的优劣势可以互补
  • 4.8.5. 人类特有的技能在工作中变得越来越有价值
4.9. 误解

  • 4.9.1. 电影中充斥着对机器人神奇能力的想象,媒体进行过度宣传,人们相信公司对机器人前景的夸夸其谈和预测
  • 4.9.2. 将人与芯片视为对立而非互补的力量
  • 4.9.2.1. 错误地将机器人视为竞争对手,而不是将它们视为队友,视为一种提高人类的生产力和能力的工具
4.10. 改变的不是人类的需求,而是我们谋生的方式
4.11. 挑战

  • 4.11.1. 转行不易
  • 4.11.1.1. 新工作所需的技能可能需要大量培训
  • 4.11.1.2. 技术导致劳动力的重大重组并非首次,但与过去不同的是,数字技术正在引发劳动力市场的两极分化
4.12. 机器应该能帮助所有人找到更好的工作,充分利用人类的独特优势
4.13. 必须有人领导这项工作,还要有人出资
4.14. 找到人类利用机器人和机器智能的优势提高生产力的方法,是推进工作的最佳途径

  • 4.14.1. 人机协作需要更智能的机器,还需要会用机器的人

来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
您需要登录后才可以回帖 登录 | 立即注册