AIGC 行业变化太快,为保持对一手信息实时关注,提示自己每天留出半小时来浏览下今天新发的 AI 论文。 绝大部分只需要看标题,少量需要看摘要,更少量需要看下结论,更更少量浏览下全文,更更更少量会在公众号推荐阅读。
本文推荐存在一些局限,我在内容行业从事风控相关工作,会更关注和我相关的信息。
主要是以下几个来源
(资料图片仅供参考)
1. https://briefgpt.xyz/ (收集了最新的 AI 论文,我主要从这个渠道看)
2. https://arxiv.org/ (这个网站的邮件订阅,但我一直订阅不成功,偶尔会去官网浏览下)
3. https://www.arxivdaily.com/ (第二个来源的日报,可查看每日更新论文,偶尔会看)
4. 公众号:arXiv每日学术速递(类似第三个来源) 1. LLM 内在状态知道自己在说谎 https://arxiv.org/pdf/2304.13734.pdf 文中介绍了 SAPLMA,是一种利用 LLM 的隐藏层激活来预测生成语句的真实性的方法。 文中证明了 SAPLMA 在检测一个陈述是真还是假方面优于小样本提示,在特定主题上达到 60% 到 80% 的准确率水平。 SAPLMA 可以利用它在不正确的信息到达用户之前将其过滤掉。2. 通过双重对抗去偏置的域外证据感知假新闻检测
https://arxiv.org/pdf/2304.12888.pdf 证据感知的假新闻检测旨在对新闻,以及新闻内容中提到的证据进行推理,发现一致性或不一致性。 但证据感知检测模型存在偏差,即新闻/证据内容与真/假新闻标签之间的虚假相关性,并且很难推广到分布外(OOD)情况。 为了解决这个问题,本文提出了一种新颖的双重对抗学习 (DAL) 方法。在 DAL 中加入了新闻方面和证据方面的去偏鉴别器,其目标都是真/假新闻标签。 DAL 反向优化新闻方面和证据方面的去偏判别器,以减轻新闻和证据内容偏差的影响。 同时,DAL 还优化了主要的假新闻预测器,从而学习到新闻证据交互模块。这个过程使能够教授证据感知的假新闻检测模型,以更好地进行新闻证据推理,并最大限度地减少内容偏见的影响。3. 大型语言模型的语义压缩
https://arxiv.org/pdf/2304.12512.pdf 为了增加输入数量,常用方法是通过无损或有损压缩。 在某些情况下,可能并不严格需要从原始数据中完美地恢复每个细节,只要传达了必要级别的语义精度或意图即可。本文介绍了对 LLM 研究的三个贡献
// 首先,展示了使用 LLM 探索近似压缩可行性的实验结果,特别关注通过 ChatGPT 接口的 GPT-3.5 和 GPT-4。 // 其次,调查并量化了 LLM 压缩文本和代码的能力,以及回忆和操作提示的压缩表示的能力。// 第三,提出了两个新的指标——精确重建有效性 (ERE) 和语义重建有效性 (SRE)——量化研究的 LLM 压缩和解压缩文本之间保留意图的水平,可将限制提升 5 倍。
4. ChatLLM Network:更多的大脑,更多的智慧
https://arxiv.org/pdf/2304.12998.pdf
当前 LLM 存在输出不可控、无法像人类一样进行合理思考的问题,本文提出了 ChatLLM 网络,允许多个基于对话的语言模型进行交互,提供反馈,并一起思考。 本文基于 ChatGPT 设计了 ChatLLMs 网络。即 ChatGPT 的各个实例可能对同一问题具有不同的观点,通过单独的 ChatGPT 整合这些不同的观点,ChatLLM 网络系统可以更客观、更全面地进行决策。 此外,还设计了一种类似于反向传播的基于语言的反馈机制来更新网络内的 ChatGPT。本设计也存在一些局限性,例如缺乏统一的机制模型之间的通信。
5. 眼见为实:人工智能生成图像人类感知的定量研究
https://arxiv.org/abs/2304.13023
通过对五十名参与者进行高质量的定量研究,发现:
// 人类在 38.7% 的情况下无法区分真实照片和 AI 生成的假照片。
// 一个人的背景,如他们的性别、年龄和对 AIGC 的了解程度,并不显著影响他们区分 AI 生成的图像和真实照片的能力。
但是本文并未解决如何来区分真实照片和虚假照片。
封面:2023年 4 月,拍摄于北京