国内的游戏行业在过去的数十年里飞速发展。渐渐地,关于游戏中传播的内容管控也逐渐严格,行业内的内容管控需求日益增长。
如果一款游戏社交平台想要呈现合格的内容,首先要规范平台,根据内容来源去区分和梳理平台内容;其次还需要制定平台内容获取标准,避免影响账号用户的体验感;最后,可以通过第三方服务商的帮助,进一步明确相关游戏舆论平台的内容获取范围和使用行为,熟悉快速的信息确认机制和平台内容验证机制,通过智能内容审计系统加强行业自律与处理能力。
1.区分不同来源的平台内容
游戏的玩家群体在使用平台内容进行传播时,审计者需要区分不同平台内容的来源。同时,也应该考虑到不同的传播模式,在每个平台上获取内容的行为也不同。
对于开放度较高的信息披露平台(如世界聊天频道和游戏论坛),玩家可以在平台上发布各种信息,其他玩家群体也可以在帖子下发表评论,并表达他们对相关问题的看法。这种沟通模式使平台有能力监察内容风向和游戏拉人行为。
因此,玩家发表信息时,游戏厂商可以根据平台现有的信息来判断和检查事件,让游戏整体环境得到进一步管控。而开放性较低的平台(如个人空间、私聊)传播范围较小,识别能力较低,容易滋生负面舆论和游戏防拉人现象。因此在规范这些平台的内容时,就更应该谨慎,提高识别能力。
2.制定平台内容获取标准
具体的规范标准是提高平台内容和质量的第一步。目前,许多游戏厂商对平台内容的规范仍处于表面阶段。如果要具体规范,首先要对内容进行分类,梳理内容,避免过度消极言论和灰产广告,淹没一些普通玩家的信号;其次,要引导用户在游戏论坛中上传标准内容,平台应发布相关内容规范,使用户能够按规范生产内容;最后,加强后台检查也是必要的,适度且合理的处罚规则也将有助于缩小媒体游戏聊天信息的失范成本。
3.建立人工智能审计,加强行业监察力
网络游戏聊天信息的传播范围越来越大,虚假游戏聊天信息也随之而来。在市场运作下,为了增加不正当收入,吸引用户的注意力,部分内容制作人不惜冒险发布劣质信息,增加盈利或是粉丝数量。由于社交媒体平台内容参差不齐,给读者选择内容带来了一些麻烦,也增加了游戏平台验证这些内容的难度。
我国游戏聊天信息业自律体系仍存在不完善、不完善等问题。游戏社交平台需要完善其内部审计体系,从源头上控制内容,从而降低漏洞造成风险的可能性。基于深度学习和神经网络自主开发的人工智能算法,行者AI谛听内容安全为游戏领域客户提供智能内容审计,可以通过成熟且完善的AI系统不断优化审计效果,从而为行业者降本增效,净化游戏环境。
原创文章,作者:Maggie-Hunter,如若转载,请注明出处:https://blog.ytso.com/271627.html