|
里也负有道德责任。如果不考虑我们行为的后果我们就无法在社会中引入和应用新的人工智能技术。我们不能盲目行动但人工智能问题必须由社会各界共同讨论。上个世纪提出的另一个道德问题是科学家们是否应该对他们的工作以及曼哈顿计划的进展更加开放。该项目处于保密状态很少有外人了解其最内部的运作情况。今天也存在类似的情况。所有相关方都需要努力在这项突破性技术的开发过程中实现最大程度的透明度。我们要相互学。
习尽早发现和应对挑战和风险。第二次世界大战后核武器再次被使 企业和消费者电子邮件列表 用的风险引发了关于核裁军和核不扩散的全球辩论。尽管人工智能的危险被夸大了但它在未来可能而且将会被用于邪恶目的。这是不可避免的。因此社会需要达成一致就像限制使用核武器的协议一样尽可能减少人工智能的负面影响。核武器和人工智能都为那些能够控制和使用它们的人提供了巨大的力量。这种力量可以影响国际关系地缘政治和社会结构。因此我们制定国际规。
范规则和协议来规范这些技术的使用并最大程度地减少潜在风险至关重要。发生并不抱太大希望。现在看来欧盟一马当先正在打破一切而美国和中国则继续独自发展。由于多种原因这令人痛苦。欧盟在科技领域将继续落后人工智能领域的投资和公司将向东西方转移。重要的是要保持清醒对人工智能的想法保持清醒这样你才不会变得粗心也不会屈服于毫无根据的恐惧。公开对话必须继续让我们以史为鉴我们如何应对新技术。
|
|