快手怎么设置隐私用户,个人隐私设置?

1996年,美国麻省理工学院教授尼葛洛庞帝在他的著作《数字化生存》中提出了这样的观点:“数字化不再只是和计算有关,它决定了我们的生存。”

二十六年后的今天,数字时代给人们的生活方式带来了巨大变革。媒介作为人的延伸,打破了时空限制,人与人之间的关系变得“比特化”,实现了前所未有的联系。同时,暴力的形式也从线下蔓延到网络空间,并在屏幕上以文字、符号、图片等更隐蔽的方式给当事人造成伤害,甚至导致“数字性死亡”和“社会性死亡”。

南财合规科技研究院计划自2022年6月开始推出一系列关于反对网络暴力的报道。报道将从不同的角度分析网络暴力的产生原因、群体反应以及治理方法,以期通过媒体的力量推动网络暴力的治理工作。

网络暴力问题日益严重,互联网平台担负着重要责任。在网络暴力酝酿和初发阶段,各互联网平台应设计防护机制,包括但不限于建立严格的社区规范和内容审核机制、加强用户举报和投诉机制、利用人工智能和大数据技术进行内容识别和过滤、加强用户隐私保护和个人信息安全等。

然而,互联网平台面临一些难点和痛点。首先,内容审核的标准和效率难以保证,可能导致一些暴力言论的逃脱或误判。其次,部分用户可能利用匿名性进行网络暴力行为,难以有效追踪和处罚。另外,互联网平台需要在内容管理和用户权益之间找到平衡,避免过度审查或侵犯用户言论自由。

总的来说,互联网平台在面对网络暴力时需要综合利用技术手段和平台管理,平衡内容监管和用户权益,以建立健康良好的网络环境。

互动管理+信息监测:网暴能否“消音”?

在互联网平台上,“用户自主设置+平台介入监测”是目前主流的事前防控模式。

经21世纪经济报道记者梳理发现,在新浪微博、抖音、快手、知乎、小红书、豆瓣、B站、百度贴吧等平台上,用户可以自主管理评论、私信互动关系。通常的选择范围包括所有人、关注的人、我的粉丝以及互相关注的人,用户还可以选择直接关闭权限。

私信场景下的网络暴力行为更加隐蔽,相较于公开评论,更容易逃避监管。许多平台对于“未关注人私信”功能都设置了严格的限制,未经对方同意或关注前最多只能发送一条消息。比如,类似“未关注人私信箱”功能,陌生人发来的私信会被系统收入其中。而在抖音、快手,用户可以选择设置私密账号,仅粉丝可以浏览作品,且新的关注请求需经过用户批准。

新浪微博最近更新了社区管理规定,加强了对言论攻击和网络暴力行为的治理,并对私信接收规则进行了调整。现在,当用户接收不关注的人发送的私信时,系统将只显示一条私信提醒。用户需要确认接收后,才可以查看具体内容并进行正常的文字对话。确认有效期为24小时。

21位记者针对网上暴力信息进行了识别和监测工作,他们设置了20个敏感词,涵盖了常见的攻击性词汇以及一些使用了谐音、换字等更隐蔽方式表达的词汇。经过在8个不同平台上进行测试,这些敏感词在不同程度上都被有效拦截了。此外,他们还观察到在评论情境下,这些词汇的拦截率明显高于私信情境。

在敏感词测试中,一般可以归纳为三种情况:第一是消息可以正常发送和接收;第二是消息发送后被屏蔽,接收方无法接收到;第三是消息发送失败。在第一种情况中,一些词汇可能会触发风险提示。

记者整理发现,系统基本能够识别和屏蔽贬低、矮化、诅咒、威胁和人身攻击类词汇。在谐音和缩写类敏感词汇中,除了“NMSL”有较高的屏蔽率,其他谐音词仍然存在一定的识别难度。

需要注意的是,网络暴力有许多不同的表现形式,判定某种言论或行为是否构成网络暴力需要综合考虑具体语境和当事人的主观感受。比如,“逝者安息”、“位列仙班”等用词在不同情境下会有不同的含义。

据最新了解,近期许多互联网平台对网暴信息的监测机制进行了调整和优化。

抖音新增了一些防范网络暴力的功能,包括“发文警示”和“负向内容过滤”等共12项功能。在“发文警示”功能下,如果系统模型认定某条评论存在问题,将会发送提示弹窗,建议发送者重新编辑以去除不当言论。如果发送者依旧坚持发送,那么该条评论将不会出现在评论区。而在“负向内容过滤”功能下,如果模型认定用户收到的私信消息包含“谩骂或骚扰”,这些消息会直接置于“陌生人盒子—垃圾信息”中。

B站最近引入了智能拦截功能,用于私信场景以侦测并直接拦截疑似骚扰或不良内容。在其他场景下,例如评论和弹幕,用户可以选择开启评论精选模式并设定弹幕关键词以过滤不良内容。据B站官方透露,他们的系统会在评论区出现较为集中的负面信息时,采用一套严格的防网络暴力管控模型来识别和过滤不友善内容。此外,平台还采用抑郁情绪识别模型来探测抑郁倾向,触发防网络暴力模型以保护用户。如果发现与轻生有关的内容,平台将立即联系专家进行风险评估,并与用户建立联系以提供情绪支持。在必要的情况下,平台会向警方报告以便处理相关情况。

B站作为一个高度关注Z世代的文化社区,最近升级了未成年人保护机制。为了确保未成年用户的安全和健康成长,开启青少年模式后,平台将对内容和功能进行了限制。未成年用户观看的视频需要经过内容团队的人工审核,而评论、弹幕和私信等功能也经过更严格的模型过滤,以降低未成年人受到影响的风险。

在知乎问答社区,用户可以开启“瓦力保镖”功能,该功能会自动识别和处理不友善的评论和私信。系统会将这些内容折叠、隐藏或删除,对于严重违规者还会进行拉黑处理。某位记者在测试时使用了两个帐号,在接收到3-4条不友善私信后,系统会自动将对方的帐号加入黑名单。另外,知乎在6月进行了优化,新增了“发文提示”功能。当用户在评论和私信场景发布不友善内容时,系统会给予社区建议修改的提示。在私信场景中,不友善的内容将被自动折叠,并触发风险提示,用户可以自主选择是否查看消息详情。

频繁出现侮辱攻击类词汇,对于更加隐蔽的网络暴力信息,平台应该如何及时处理呢?微博相关负责人表示,针对日常的言论攻击、隐私泄露和煽动争端等内容,平台采取主动巡查和受理用户举报投诉等方式进行处理;对于热点事件中引发的网络暴力行为,平台会及时追踪并联系相关当事人,发现线索后上报监管部门;此外,微博还通过机器模型和关键词策略加强内容识别和处置,以处理平台上不友善的内容。

贴吧官方回复指出,贴吧设有巡查、吧主和吧务反馈、举报、清理回溯等机制,同时不断提升内容策略,加强贴吧网暴识别能力。最近,贴吧共新增了将近500组网暴关键词,并新增了超过600张图片黑库。

定义之困:网暴的灰色边界

目前,对于网络暴力的定义仍然存在一些模糊的界限。在互联网平台上,人们一直在面临一个棘手的问题:如何界定何种言论和行为能够被视为网络暴力?

当事人在社交账号上不断转发白色蜡烛表情包,并附上“早日安息”的字样。在私信中,则“提醒”当事人,“晚上一个人出门注意安全,别被车撞了。”同时也对当事人的外貌留下一句轻飘飘的评价,“脸部看起来充满了高科技的感觉,一定非常显贵吧。”

互联网上存在大量不确定性的内容,如同一座大山屹立在网络治理网暴的道路上。

微博相关负责人在采访中告诉21记者,微博平台主要治理侮辱谩骂、侵犯隐私、造谣诽谤、贬低羞辱、道德绑架和冒犯骚扰等方面的网暴行为。他表示,网暴行为的发生较随性和偶然,没有固定规律,有时只因为一句话、一个观点或一个表情。平台难以及时发现和制止。此外,行业处置未形成统一标准,各平台尺度不同,导致处置过程中也会存在用户申诉和投诉的问题。

抖音相关负责人指出,尽管平台正在不断加强网暴信息识别能力,但仍面临一些难点。他表示,在确定网暴行为时平衡“快速”和“精准”仍然具有挑战性。明显的辱骂、造谣、人身攻击类言语,平台可以明确定义并进行治理。然而,还有许多恶搞、调侃类的言论,虽然不违法,但对当事人造成了实质伤害。例如,将当事人的脸P成搞怪表情包,以谐音梗进行辱骂等。负责人表示,“网暴的界定和识别”是目前治理中的难题之一,需要综合考虑受害人的具体情况、抗压能力,以及信息传播的量级和速度进行个案分析。这对平台进行规模化且即时的治理带来了很大困难。

目前,司法界尚未对网暴做出明确的界定,而是以局部性的角度来加以归纳。北京海淀法院负责审理互联网案件的法官秦鹏博在最近的采访中表示:“现行的法律法规和规范性文件、指导性文件中缺乏对网络暴力概念内涵和外延的规定,也没有列举性的规范方式。”为了有效治理网络暴力,未来需要进一步明确定义网络暴力的法律概念,并探索制定专门法律的立法模式。

社区共治:数字邻居的正向联合

不同的互联网平台拥有独特的社区文化。在早期阶段,文化建设作为一种“软性手段”将分散的用户联系在一起,强化用户作为数字社区成员的身份认同感,引导用户自觉维护社区氛围。对于内容的真实性难以判断的情况,平台也可以通过用户众议的方式提高信息甄别的准确性。

在B站,用户可以自愿加入“风纪委员会”,对全站热门稿件的氛围进行众议投票,包括视频整体的评论、弹幕氛围,以及单条评论、弹幕在具体语境下是否适宜,以此甄别不良内容。B站相关负责人在采访中表示,“今年4月,我们收到部分风纪委员的反馈,希望社区能够治理数码区存在的‘带节奏’引战攻击互动问题。5月初B站启动了数码区专项治理行动,根据风纪委提报的不良氛围特征进行总结,交由阿瓦隆(评论审核系统)学习并治理。”

微博相关负责人表示,采用众议投票的方式可以在一定程度上降低正常评论被误伤的情况。他们表示,针对难以界定的内容,微博平台将每日向社区委员会成员推送进行投票,以公平地判定违规行为是否成立。如果用户对平台的处理有异议,可以随时进行申诉。

多个互联网平台目前采取了一系列措施来维护社区氛围,比如制定社区公约、鼓励用户参与社区共治等方式,同时也积极吸纳用户意见和建议,以此来调整社区策略。

顾洁教授指出,在互联网综合治理体系中,网民自律至关重要。他强调,自律不仅意味着不做坏事,更重要的是积极去做好事。目前,网民参与互联网治理的潜力尚未完全释放,但随着网络志愿文化的普及,他相信越来越多的网民会积极参与到治理中去。

随着个性化算法推荐等技术的普遍应用,人们往往只关注自己感兴趣的内容,只听自己认同的观点,从而形成“回音室效应”,可能会加剧群体极化现象。网民和互联网平台都应意识到这一问题并采取措施。互联网平台应坚持技术向善,以主流价值观为导向,为网民提供更多的信息选择。而网民自身也应该有意识地拓宽信息视野,了解多元化的声音,提升媒介素养,提高理性思辨能力。

请前往21财经APP获取更多内容。

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 sumchina520@foxmail.com 举报,一经查实,本站将立刻删除。
如若转载,请注明出处:https://www.maihuo6.com/42065.html