警方可以确定哪里最有可能发生汽车盗窃案 , 哪里最有可能发生枪击案;还可以找出重要的破案线索 , 找出最有可能破坏社区稳定的犯罪网络;还可以鉴别出犯罪人员、犯罪网络以及犯罪手法 。
大数据和人工智能技术为侦查案件和预防犯罪提供了强有力的手段 , 提高了公安系统的执法效率 , 并以一种看似客观和中立的方式将犯罪扼杀在了摇篮里 。
偶尔也失误
和《少数派报告》中一样 , 预测犯罪的“先知”们也有可能会做出致命的错误预测一样 , 这种犯罪预警系统也有可能会做出错误预测 , 并产生“少数派”效应 。
在这个预警系统所利用的数据中 , 有一大部分是来源于以往的案件信息 。 但是要知道 , 在这些以往的案件中 , 某些执法机构总会夹杂着对有色人种、移民、宗教、穷人等少数群体的偏见去执法 , 导致案件被误判 。
所以 , 如果长期以往利用这些以往的不公正的案件数据来预测未来的犯罪的话 , 就会加剧对那些少数群体不公平 。 这就是所谓的“少数派”效应 。
另外 , 预测系统所依赖的数据可能是错误的、虚假的 。 所以 , 基于这些错误数据所得出来的结果可能也是错误的 。 如果警方基于这些错误的预测去执法的话 , 就可能会伤害到无辜的人 。
再者 , 这种基于大数据的实时犯罪预防手段还给民众带来了关于过度监控和数据隐私保护的恐慌 。 如果要获得各种各样的海量数据和及时阻止犯罪的发生 , 公安机构就不得不监视着公众们在 Facebook、YouTube 以及推特等社交媒体上的行为活动 , 就不得不在没有获得民众个人的许可的前提下擅自获取民众的隐私数据 , 就不得不安装大量的随处可见的监控摄像头来日以夜继地拍下人们的一举一动 。
说到底还是那句话 , 任何新技术都是把双刃剑 , 关键是人们要如何权衡利用它们 。 就像电影《少数派报告》中一样 , 真理还是掌握在我们人类的选择之中 。
那点关于自杀的小心思 , 一样逃不过AI法眼
根据世界卫生组织统计 , 每年约有80万人自杀身亡 。 评估自杀风险是心理健康临床医生面临的最大挑战之一:具有自杀想法的病人常常掩盖其自身意图 , 而临床医生对自杀风险的预测也一直不甚理想 。 因此 , 我们亟需不依赖于自我报告的自杀风险标记 。
近日 , 《自然-人类行为》在线发表的一篇论文表明 , 利用机器学习技术表征人脑内的死亡和生命相关概念 , 可以高度准确地区分具有自杀想法的病人和无自杀想法的个体 。 该方法还可以在具有自杀想法的人中 , 进一步区分出哪些做出过自杀尝试 , 而哪些没有 。
美国卡内基梅隆大学的Marcel Just、David Brent和同事向具有自杀想法的病人和对照组个体展示死亡和生命相关单词 , 在此过程中对他们进行功能性磁共振成像扫描 。 结果发现 , 对其中六个单词(死亡、残忍、麻烦、无忧无虑、良好和赞美)的神经活动应答以及五个脑区的神经活动最能区分想自杀的病人和对照组个体 。 之后 , 作者训练一个机器学习算法使用该信息来鉴定哪些被试是病人 , 哪些是对照组个体 。 算法准确鉴定出17位自杀组病人中的15位 , 以及17位对照组健康个体中的16位 。 之后 , 作者仅研究想自杀的病人 , 他们被分为两个小组:曾尝试过自杀(9位)和未尝试过自杀(8位) 。 作者训练了一个新的算法 , 它准确鉴定出了其中16位的情况 。

自杀组和对照组的大脑稳定体素群 。
猜你喜欢
- 仓鼠的日常饮食该怎么安排?
- 喂养仓鼠的三大原则
- 狗狗尿结石不做手术能好吗?
- 兔子拉肚子怎么办?
- 自制绿萝肥料方法
- 教师资格证哪个好考?幼儿园、小学、中学、中职
- 小学生必备百科知识
- 中小学生必备百科知识
- 常见百科知识,为孩子留着
- 怎么判断猫是不是有球虫病?
