机器学习模型检测在线信息战 ——
机器学习模型检测在线信息战——随着社交媒体越来越多地被用来作为人们获取知识的主要来源,恶意的和虚假的信息传播所带来的威胁越来越大。随着新闻源中人工编辑的缺失和在线活动的增长,各种恶意行为者操纵人们的认知已经变得非常容易。找到一种有效的方法来检测网上的恶意信息是解决这一问题的重要一环。兰德开发了一种检测在线信息恶意使用的方法。今天的在线社区越来越多地受到垃圾新闻、网络欺凌、恐怖主义宣传、政治斗争信息战等威胁的影响。这些威胁是由机器人用户和人类用户共同进行的,包括Trolls、民粹主义政治嘴炮、极右或极左个人、国家级竞争对手和极端主义团体。研究团队在已知的俄罗斯Trolls数据库中成功应用了一个机器学习模型,以识别真实的政治支持者和Trolls之间的差异。研究团队使用文本挖掘来提取特定的搜索词,收获了190万用户账户的推文,然后使用算法来识别不同的在线社区。分析确定了775个伪装成自由派和保守派支持者的完全虚假的Trolls账户,以及190万真实的自由派和保守派支持者。下一步就是将该模型用于其他典型的信息战局面,比如英国脱欧,比如中国和美国之间的帝国争霸战。下面上传这份研究报告。请注意,这类研究报告很有用,是对防御和攻击的双重作用——您可以用它来揭露信息战操纵,操纵者也可以将其用作规避标准,以改变战略避免被识别。不要错过关于信息战揭露的相关报告和技巧知识:《看清信息战:2019全球有组织社交媒体操纵清单》《诈:在线信息战操纵战略的多样化》《所有信息都是战略性的:信息地缘政治》《选举如何成为一门生意:私人情报市场和现实的有偿操纵者》《如何在网上兜售谎言? — —他们承诺可以”按照你的意愿改变任何现实”》《心理操纵的秘密:”行为经济学”+PR=?》《互联网霸主的时间线——他们将互联网视为间谍、破坏和战争的主场》《当恶意者掌握技术:信息战的未来究竟有多可怕?》《如何分辨:机器人、僵尸网络和trolls》更多内容见:“心理战和信息战”https://www.iyouport.org/%e7%9c%8b%e6%b8%85%e4%bf%a1%e6%81%af%e6%88%98%ef%bc%9a2019%e5%85%a8%e7%90%83%e6%9c%89%e7%bb%84%e7%bb%87%e7%a4%be%e4%ba%a4%e5%aa%92%e4%bd%93%e6%93%8d%e7%ba%b5%e6%b8%85%e5%8d%95/