• 1
  • 2
  • 3
  • 4

首页 / 行业

人工智能怎样解决网络欺凌

2019-08-05 09:03:00

人工智能怎样解决网络欺凌

2017年,洛克威的科普兰中学,一名12岁的新泽西女孩在遭受了同学数月的网络霸凌后结束了自己的生命。这并不是个例。根据bullyingstatistics.org调查显示,超过一半的成年人和青少年都曾遭受过网络霸凌,超半数也的人曾参与过网络霸凌。

对于那些每天在学校或网上被欺负的青少年来说,造成的影响可能是毁灭性的。由于青少年急于寻求身份认同,他们通常很容易受到影响。每天持续遭受欺凌如同在中央情报局的酷刑室受到精神折磨,可能会导致焦虑、抑郁甚至引发自杀行为。

网络霸凌正波及整个网络

根据皮尤研究中心,75%的美国成年人身边曾发生过网络霸凌。其中40%的美国公民亲自经历过某种形式的网络骚扰。

网络霸凌引发的社会问题

网络霸凌不仅仅影响人们的网络体验。许多情况下,还会演变为现实生活中的发生跟踪和骚扰事件。佛罗里达大西洋大学(Florida Atlantic University)对高中生进行的一项研究表明,83%曾遭受网络霸凌的人也曾在现实生活中受到欺凌。学校通常会对学区隐瞒这些事件。除非造成人身伤害,否则警方在帮助逮捕和起诉欺凌者方面往往无能为力。

霸凌者和受害者同样痛苦

受害者容易患上焦虑和抑郁等精神疾病。但是,霸凌者也容易产生导致人格障碍的反社会行为。如果每次发生霸凌事件,霸凌者的行为得不到惩戒,最终霸凌者就会感到有“权利”,由此助长下次霸凌的发生。正是这种“权利”导致了网络生活和现实生活中各种细化的反社会行为。自恋型人格障碍、边缘性人格障碍都是与反社会行为相关的精神疾病。近年来,社会中精神疾病的增加并不意外。

网络霸凌影响了人们对互联网和科技的信任

互联网使社会受益匪浅。几十年来,技术进步使人们的工作愈加高效。网络恶性贴文对人们的网络体验造成消极影响,还影响人们利用网络进行高效工作。这些情况让新一代用户认为这些技术是不良的工具,打击人们将技术融入生活的积极性。

网络霸凌难以预防和阻止

网络霸凌与现实生活中的霸凌不同。网络霸凌独有的特点使其难以被阻止。

· 网络欺凌难以察觉——通常,欺凌者披上幽默的外衣,巧妙地讥讽受害者。

· 屏蔽他人只会助长霸凌——社交媒体群中,想要屏蔽掉霸凌者几乎是不可能的。特别是当对象是学生时,在一个为满足教育需求创立的学习论坛中屏蔽某个学生是不可能的,而霸凌者也在其中。

· 网络欺凌的受害者很难被发现 - 通常,受害者对他们遭受的霸凌持有疑问。由于欺凌者隐藏在幽默和虚假的网名背后,受害者常常觉得他们应该受到指责,或者他们是那些无中生有的人。

网络欺凌为人工智能提供了一个亟待解决的问题

识别网络霸凌异常困难为那些试图保护自己的在线社交媒体社区的公司带来了独特的挑战。通常这种大海捞针的问题,最适合采用机器学习来解决。AI可以识别语言的细微差别,在人类无能为力的大数据分析领域有效的对语言进行分类。 当算法了解愈多的欺凌者的网络活动时,还可以调整和提高识别网络欺凌的准确性。

2016年,Identity Guard与Megan Meier Foundation合作,使用IBM Watson技术,使自然语言处理(NLP)和自然语言分类器(NLC)可以识别网络欺凌或自我伤害。父母会收到在识别案例中生成的警报。然后,可以采取措施为孩子的网络体验把关。

2016年6月,Facebook推出DeepText作为“基于深度学习的文本理解引擎,能够以近乎真人的精确度理解每秒数千个帖子的文本内容。不久,Instagram开始使用DeepText消除其平台上的垃圾邮件。最近,Instagram开始使用技术来对抗网络恶性贴文和骚扰。Facebook拥有一个内容管理团队,该团队将与人工智能技术相结合,在线识别骚扰,监控和删除虚假账户。

Twitter还使用人工智能技术发现垃圾邮件并识别负面互动。Twitter通过在用户的提要上展示最佳,积极的体验,帮助用户营造自己的网络生活。如果您在Twitter上屏蔽某人,那么来自同一个人的类似帐户将不会显示在您的Twitter Feed上。

谷歌和Jigsaw开发了人工智能调节工具Perspective,根据与人类评论家归类为“有害”的评论的相似性对评论进行评分。Youtube使用此工具来对抗其平台上的在线骚扰。

人工智能和机器学习并不完美

与人为干预相结合才能将人工智能和机器学习用于鉴别网络恶性贴文和骚扰的功能发挥到极致。无论是AI系统用作训练数据的人类数据,还是用于验证AI系统提供的结果准确性的内容审阅者,一些人工干预都有助于AI系统产生更准确的结果。在Instagram上,图像分类和文本分类呈现出更复杂的识别在线骚扰的案例。具有特殊语境意义的中性文本的使用也为AI系统鉴别特定类型文本造成阻碍。

大众必须帮助AI Systems提高效率,保护在线社区

技术和人一样高效。如今的95后比他们的父母更加了解科技,这意味着我们在网络上花费的时间也就越多。作为人,必须更明确地了解自身的在线行为。在现实生活中,我们的行为准则通常会被所居住的社区所强化。在网络生活中,也需要有在线社区成员所执行的那种行为准则。躲在电脑屏幕后面,感觉“有权”说出自己的感受和行为只会导致网络论坛的混乱。相反,我们应该对现实生活中的行为负责。

保护网络社区的措施:

· 一旦看到恶性贴文,立马举报。若对恶性贴文视而不见,那么最终你也会成为恶性贴文的受害者。在任何社交媒体社区,都可以通过按一个按钮来举报违规帐户。

· 了解孩子的在线活动。与孩子交谈,了解他们的在线活动。与他们讨论潜在的骚扰和欺凌行为。告诉他们适当的网络礼仪,正如你教导他们在生活中要讲礼貌一样。

· 了解工具并使用它们。在每个社交媒体平台上,都有举报和屏蔽用户的工具。无需举报或屏蔽同一个用户的多个不当行为——只需举报或屏蔽一次就行。

· 了解并设置隐私边界。网络活动可以快速设置为个人可见。为了保护自己,设置个人网络生活的私密程度。不要张贴你知道可能令人尴尬多年的照片。 同时,请不要向他人索取私人信息,毕竟己所不欲,勿施于人。

· 记录骚扰行为。通过拍摄证据来记录您收到的每一次骚扰。发帖者或骚扰者可能会删除帖子,为方便调查建议保留副本。

· 相信自己的直觉。作为人类,要相信自己的直觉。产生这些感觉是有原因的。我们的体会告诉自己感受如何,反过来警告潜在的危险。如果你觉得某人的评论是“关闭”,那可能就是。在你把它归结为你的错之前,先和别人谈谈以获得中立的意见。可能错并不在你。

网络霸凌每天发生,每个人都有责任保护自己的在线体验。人工智能可以在社交媒体帮助我们标记和监管在线活动。但是,就像现实生活中的警察一样,第三方也就只能做到这儿了。

为弥补技术不足提高准确性,需要大众参与

当我们通过学习,实施和建模适当的网络礼仪参与其中,AI系统将更容易发现异常现象。当我们屏蔽并举报用户的不当网络行为时AI系统可以获得更准确数据。 当我们相信自己的直觉并主动采取行动阻止他人的恶性贴文和骚扰时,我们就是在表明立场 如果我们联合起来对任何形式的欺凌说“不”,那么欺凌者和恶意发帖者就更难滋长。

请记住,网络生活就像现实生活一样。互联网社区就像现实社区一样。我们正在建设世界。在这些世界中,担负的责任与现实生活中的同样沉重。

网络人工智能机器学习恶性

  • 1
  • 2
  • 3
  • 4

最新内容

手机

相关内容

  • 1
  • 2
  • 3

猜你喜欢