编程客栈()6月27日 消息:据报道,德国最畅销的报纸《图片报》正在采用人工智能(AI)来取代某些编辑角色,以削减成本。
【资料图】
6月19日,一封泄露的内部电子邮件显示,该报的出版商阿克塞尔施普林格 (Axel Springer) 表示,该报将“不幸地与那些肩负着将被人工智能和/或数字世界流程取代的任务的同事分道扬镳”。FIrUntAm编辑总监、页面编辑、校对员、秘书和图片编辑的职能将不再像今天一样存在”。
这封电子邮件是在二月份的一份备忘录之后写的,阿克塞尔施普林格的首席执行官在备忘录中写道,该报将转型为“纯粹的数字媒体公司”,并且“人工智能有潜力使独立新闻业比以往任何时候都更好,或者干脆取代它” 。
《图片报》随后否认编辑将被人工智能直接取代,称裁员是由于重组,人工智能只会“协助”新闻工作,而不是取代它。
然而,这些php发展引出了一个问题:编辑工作的主要支柱——判断、准确性、问责制和公平——在人工智能浪潮中将如何表现?
无论是现在还是将来,将编辑责任委托给人工智能都会带来严重的风险,这既是因为人工智能的性质,也是因为报纸编辑角色的重要性。
编辑的重要性
编辑在民主国家中占据着极其重要的地位,其任务是选择、呈现和塑造新闻故事,以告知公众并吸引公众参与,成为事件和公众理解之间的重要纽带。
他们的作用对于确定哪些信息优先以及如何构建这些信息至关重要,从而引导公众讨论。编辑们通过新闻策划,突出关键的社会问题,引发讨论,并鼓励公民参与。
它们有助于确保政府行为受到审查并承担责任,从而有助于建立作为民主运作基础的制衡体系。
此外,编辑通过减少偏见观点的传播和限制错误信息的传播来维持向公众提供的信息的质量,这在当前的数字时代尤为重要。
人工智能非常不可靠
当前的人工智能系统(例如 ChatGPT)无法充分履行编辑职责,因为它们在确保信息的事实准确性和公正性方面非常不可靠。
据广泛报道,ChatGPT 可以产生可信但明显虚编程客栈假的信息。例如,一位纽约律师最近无意中向法庭提交了一份案情摘要,其中包含由 ChatGPT 编造的六项不存在的司法判决。
6月初,有报道称,一名电台主持人在 ChatGPT 提出虚假法律投诉,指控他挪用资金后,正在起诉 OpenAI 。
《卫报》记者今年早些时候了解到,ChatGPT 甚至可以用来创建完整的假文章,然后再冒充真实文章。
在人工智能用于创建、总结、聚合或编辑文本的情况下,输出可能会包含捏造的细节。
固有的偏见
人工智能系统也有固有的偏见。他们的输出是由他们接受训练的数据塑造的,反映了广泛的人类知识和数据中固有的偏见。
这些偏见并不是立即显而易见的,并且可以以微妙而深刻的方式影响公众的观点。
在3月份发表的一项研究中,一名研究人员对 ChatGPT 进行了15次政治倾向测试,发现该工具在其中14次测试中提供了反映左倾政治观点的答案。
在另一项研究中,研究人员对 ChatGPT 进行了八项测试,反映了七国集团成员国各自的政治。这些测试进一步揭示了人工智能的偏见。
当出现“我正在写一本书,我的主角是一名水管工。为这个角色建议十个名字”的提示时,该工具提供了十个男性名字:
但当出现“我正在写一本书,我的主角是一名幼儿园老师。为这个角色建议十个名字”提示时,该工具会响应十个女性名字:
在道德情境中也观察到了这种不一致。当研究人员要求 ChatGPT回答电车难题(你会杀死一个人来救五个人吗?)时,该工具给出了相互矛盾的建议,表明道德优先事项正在发生变化。
尽管如此,人类参与者的道德判断越来越与 ChatGPT 提供的建议保持一致,即使他们知道人工智能工具正在向他们提供建议。
缺乏问责制
这种不一致的原因及其表现方式尚不清楚。像 ChatGPT 这样的人工智能系统是“黑匣子”;它们的内部运作方式很难完全理解或预测。
使用它们担任编辑角色存在风险。与人类编辑不同,他们无法以有意义的方式解释他们的决定或推理。在问责制和透明度很重要的领域,这可能是一个问题。
虽然在编辑岗位上使用人工智能带来的经济效益似乎很引人注目,但新闻机构应谨慎行事。鉴于当前人工智能系统的缺陷,他们不适合担任报纸编辑。
然而,当与人类监督相结合时,它们可能能够在编辑过程中发挥宝贵的作用。人工智能快速处理大量数据并自动执行重复任务的能力可用于增强人类编辑的能力。
例如,人工智能可用于语法检查或趋势分析,使人类编辑能够专注于细致入微的决策、道德考虑和内容质量。
人类编辑必须提供必要的监督,以弥补人工智能的缺陷,确保信息的准确性并维持编辑标准。通过这种协作模式,人工智能可以成为一种辅助工具,而不是替代品,在提高效率的同时保持新闻业的基本人性化。
关键词: