这也引出了使脑机接口成为可能的第二个事实。由于机器学习的进步,科学家们开发了可以学习识别海量数字中的关键模式的程序。他们通过提供大量示例来训练这些程序实现对大脑信号的解码。但是,如果训练此类程序(称为解码器)的目标是破译来自特定个人大脑的信号,那么这些示例也必须来自这个人的大脑。
开发脑机接口的研究人员通常通过指导个人在特定时间思考特定想法来创建此类示例,从而为程序创建神经课程以供学习。在潘乔的案例中,科学家们让他试图说出屏幕上显示的常见单词,在据此生成的语音分布图中收集了近一万个活动示例,另外250个示例是在他试图说出由这些单词构成的句子时收集的。即使经过如此广泛的训练,他的解码器仍有25%到50%的时间出错。
虽然脑图的通用特征和位置使其成为脑机接口的合理入口,但脑图的独特特征往往可以保护它们免受窥探。如果脑机接口成功地从大脑中读取了特定的想法或意图,则是经过被读取大脑的个人的许可和顺从。
但是有一些秘密方法可以在你不知情的情况下在你的大脑上训练解码器。如果你的神经数据(无论是从大脑中的电极,还是从嵌入发带或帽子中的传感器收集的)落入拥有有关你活动的详细信息的公司手中,就会发生这种情况。
例如,脸书公司部分地资助了制作潘乔的脑机接口的研究,并拥有自己的内部脑机接口开发计划。脸书报告了正在研发的脑机接口项目,可以解码由非侵入性可穿戴设备收集的神经信号,该设备可以让人们通过想象说话来打字。
虽然脸书最近声明,他们并没有实施这些计划,他们仍然在积极的研究其他脑机接口相关的概念。但是,在公众开始使用这些技术之前,我们应该先问问自己,在这样一个技术得到广泛应用的世界里,我们怎样才能保护个人的权利和隐私。
许多公司掌握着有关个人购买历史和在线行为的大量数据,对每个个体的了解超出了我们的预期。如果公司或广告商能够访问个人的神经数据,这对隐私的威胁将是巨大的。
如果像脸书或谷歌这样的公司有权在使用他们的产品来撰写信息、购物或浏览推送的时候从人们的大脑中收集信号,那么他们就有了所需的数据来训练解码器去读取人们的某些特定想法和行为。虽然他们能读到的东西很有限,有时还不正确,但对人脑的访问是没有得到我们的许可的。