空中自体动力宣言吧 关注:4,966贴子:11,351
  • 2回复贴,共1

√。 |0422|研究|Facebook 的社交自由与讯息垄断。

只看楼主收藏回复



IP属地:中国台湾1楼2017-04-22 23:39回复
    【 讯息场研究
    ——Facebook 的社交自由与讯息垄断。】

    △ 附圖 - 取自 Pawel Kuczynski 作品( 和本文内容无直接关联 )。
    Facebook 在今年开发者大会上,揭露旗下祕密团队开发的「 读心术计画 」,让使用者把他们的心思转换为文字,直接键入电脑,或者利用肌肤聆听话语。计画主持人、曾主管五角大厦旗下国防先进研究计画署( DARPA )的杜根( Regina Dugan )告诉在场听众:「 说话基本上是一种压缩的演算法,这正是我们为何喜爱伟大的作家和诗人,因为他们更擅长将一个完整的想法压缩成文字。但倘若我们可以将大脑( 的想法 )直接化为文字键入电脑呢?」
    生活和感官高度讯息化的「 无障碍 」。
    Facebook 一直想「 补全 」人类的沟通世界,包括建构障碍人士之间的社交网络。去年就有 Automatic Alternative Text 的功能( 多被译为「 自动可替换文本 」(https://newsroom.fb.com/news/2016/04/using-artificial-intelligence-to-help-blind-people-see-facebook/ )。这项功能的开发,主要来自一份 Facebook 和康乃尔大学对( 互联网 )社交孤立感的研究( https://research.fb.com/how-blind-people-interact-with-visual-content-on-social-networking-sites/ )。但我始终对在生活和感官被高度讯息化的互联网世界中倡议「 无障碍空间 」感到存疑。
    (整个运作方式就是另一种讯息垄断)
    Alternative Text( 可替换文本 )原本是网页标记语言 HTML 的一个属性,在製作网页时,你可以为图片设置一个描述性的词彙。当图片无法加载时( 如图片被从服务器删除、图片路径错误 ),我们还是能看到这个词。而大多数读屏软件在遇到图片时,也会直接读出可替换文本的内容。在一般运作中、Facebook 会统一把用户上传的图片的可替代文本设置为「 XXX 的照片 」,但是开始运行 Automatic Alternative Text 后、它会基于人工智能,自动根据照片内容进行替换( 因此被称为自动可替换文本 )。
    被劳动关係制约的讯息想像。
    日前曾有在 Facebook 被其他用户检举为虚构人物而遭到限制入( 社交平台的 )境的经验。真是一趟讽刺的脸友圈之旅。我应该不是唯一被「 处置 」的案例,但观察了别人的反应,大多数都认为这些平台毕竟都是互联网公司的,我们只是「 使用者 」,所以难为也要遵守规范。我认为这种马上陷入「 消费者( 使用者 )规范 」的反馈模式,一直是网路平台用户被剥夺发言权( 或使用权 )后,一种常见的命题设置错误,不过我确实还没想到对这种错误的合适回应方式。
    (Facebook 不是讯息社会的偶例)
    现阶段、几乎所有带有吸附用户内容生产功能的平台都陷入生产结构错乱的困局。你是用户,名义上的消费者、同时又得自动加入一个漫无止境的讯息劳动市场,待价而沽。我一直认为这也是一种资讯社会成员「 关係混乱 」的问题。这种关係错乱造成了讯息社会只剩下广义的展演者与围观群众几种单一类型。英美剧很多都在讽刺这件事,但却无法对互联网一开始便建基在资本市场上的事实提出其他「 解除关係 」的想像。


    IP属地:中国台湾本楼含有高级字体2楼2017-04-22 23:46
    回复
      【 讯息场研究
      ——报导语境背后的信息科学想像。】

      △ 附圖 - 取自 Pawel Kuczynski 作品( 和本文内容无直接关联 )。


      Facebook 最初的审查机制主要依靠用户之间互相举报,层层向上打报告。用户举报不宜内容,然后工作人员再逐个对内容进行检查,重要程度高的再往上交给高管决定,确定违反规定的再进行下架删除。这一套流程完成时间,正好可以满足一起暴力事件的充分发酵。这样的审查通常不够及时而且还很耗力,仅仅是浏览被用户标记过的视频就需要数个小时。随后 Facebook 开始开发智能监测的软件,可以对视频直播中的敏感内容进行监控和识别。这个系统可以对黄色、暴力、以及极端组织发布的画面进行自动识别和标注。
      由于大量自杀直播事件的频频发生,在( 2016 )三月,Facebook 把自杀也加入智能监测的列表。但是这样的监测也有一定难度。智能监测系统的开发者说,要对视频直播内容进行实时监控识别,主要存在两个技术难题:首先是计算机视觉识别的算法必须足够快,预计目前 Facebook 的研发能够达到应用水平。另外系统也必须对违规视频直播进行优先级决策,让一些了解政策的专业人士决定是否应该停止某个直播。」
      Facebook 对愿意揭露在大众面前的技术展示其实很有趣,这与中国大陆近期所兴起的一种由对互联网产业从业者进行的非虚构人物书写,所勾勒出来的互联网空间有很大差异。这些报导体裁都有一个共通点,就是不再以现象描述为主要角度、回到专题人物的传统拟写,反而更具备打破网络场景侷限的有效沉浸。例如《 GQ 实验室 》的一篇——《 是谁正在剪辑你的生活?》,虽然只是一篇单纯报导、但文中从「 网路平台审查员 」的视角进入,让影片上架前那段暧昧的过度,被切成一块单独时空独立出来。这个对特殊审查空间的描写,确实稍微打开了对网路工具的一贯想像模式。或、下列这篇关于「 网路鉴黄师 」的描写( 请自行搜索标题:《 映客一年花 8000 万鉴黄,于是我们找到一位鉴黄师,他说自己一年封号上 》 )。
      而 Facebook 这类平台( 与其愿意露出的报导走向 )却仍旧把和群众用户的关係,挡在高科技想像的门槛之外。我认为 Facebook 审核后台较少被公开讨论,是导致很多人对这个场所高度美化( 或过度想像 )的主因。就拿直播审核来说,每次都神神秘秘透露「 正在开发一款新工具 」、像是直播中对色情、暴力、或激进言论进行标记( 最近应该又多了自杀标记 ),但始终没能看到怎么运作。但在中国大陆上、却以一种直白赤裸( 甚至低俗粗暴 )的方式被公开、而 Facebook 这方面的讯息透露却显得晦涩飘忽。


      IP属地:中国台湾本楼含有高级字体5楼2017-04-25 02:52
      回复