27 岁的英国男子 Hugh Nelson 因使用 AI 创建儿童色情而被判 18 年。他对 16 项儿童色情相关指控认罪,其中包括使用美国软件公司 Daz 3D 的 AI 工具将真实的儿童日常照片转变成儿童色情材料,承认鼓励他人对儿童实施性侵。警方去年 6 月查获了其电子设备,在设备上发现了真实的儿童照片和 AI 生成的儿童色情图像。Nelson 承认根据客户要求制作和销售儿童色情图像。为其提供 AI 工具的 Daz 3D 公司表示其服务条款禁止创建儿童色情材料,将致力于改进其能力防止其软件用于此类用途。

StabilityAI昨天发布了其全新的Stable Diffusion 3.5系列 AI 图像模型,与之前的3.0版本相比,这次升级显著提高了图像的逼真度、对提示的响应能力以及文本渲染效果。StabilityAI 表示,新模型的重点是可定制性、高效性能和多样化输出。“Stable Diffusion3.5是我们迄今为止最强大的模型,体现了我们为创作者提供广泛可用且先进工具的承诺。”公司发言人解释道。这意味着图像可以进行精细调整,模型可以“开箱即用”在消费级硬件上运行,生成的图像会更加独特。

如果你对编码本身没兴趣,而只是想通过AI来实现某些功能,那么AI确实可以替你完成这些。公司高层并不是因为这些工具能让员工变成高效的高级开发者而欣喜若狂,而是因为他们看到了未来——廉价的AI代替了昂贵的开发者,甚至开发者完全被AI取代。依赖AI生成代码会让你失去编写代码的乐趣和自豪感,也可能成为被取代的开始。如果你还在乎编程的艺术性,那么不应轻易将这一技能交给AI。

Google 高管 James Manyika 警告,尽管预测 AI 的经济潜力高达万亿美元,但它未必能提升生产力。Manyika 是 Google 负责研究、科技和社会的高级副总裁,他指出生成式 AI 对生产力的提升是难以保证的,需要大量的工作。AI 聊天机器人可能会变得随处可见,但它没有从根本上改变经济。用生成式 AI 起草代码是不够的,美国科技行业的工人只占总劳动力的 4%,即使他们所有人都用 AI,从生产力的角度看也是无关紧要的。要改变生产力需要劳动力密集的行业如如医疗保健和零售业普及 AI。而护士和医生等职业都不可能被 AI 取代,最多能提供协助。

押注 AI 市场急剧扩大的股价走高正在放缓。英伟达于 8 月 28 日公布的强劲财报并未成为重回涨势的起点,全球半导体关联股的合计总市值与最近的峰值水平相比减少 1 万亿美元。有观点认为,由于对半导体芯片和服务器的先行投资增加,实现盈利需要一定的时间,因此市场对 AI 革命的过高期待暂时减弱。英伟达公布的 5~7 月净利润增至上年同期的 2.7 倍。然而市场并未对强劲的财报内容作出正面反应,令人感觉投资者心理已经发生改变。全球 1300 多家半导体关联股截至 28 日的总市值合计为 9.24 万亿美元。与美国半导体指数创出新高的 7 月 10 日(10.36万亿美元)相比减少了约 1 万亿美元。

OpenAI 透露 ChatGPT 周活跃用户突破了 2 亿,两倍于去年的数字。OpenAI 表示,92% 的财富 500 强企业在使用其产品,自 7 月发布 GPT-4o mini 以来,自动化的 API 使用量翻倍。CEO Sam Altman 在一份声明中表示,该公司的工具已成为日常生活的一部分,在医疗保健和教育等领域发挥着真正的作用。

押注 AI 市场急剧扩大的股价走高正在放缓。英伟达于 8 月 28 日公布的强劲财报并未成为重回涨势的起点,全球半导体关联股的合计总市值与最近的峰值水平相比减少 1 万亿美元。有观点认为,由于对半导体芯片和服务器的先行投资增加,实现盈利需要一定的时间,因此市场对 AI 革命的过高期待暂时减弱。英伟达公布的 5~7 月净利润增至上年同期的 2.7 倍。然而市场并未对强劲的财报内容作出正面反应,令人感觉投资者心理已经发生改变。全球 1300 多家半导体关联股截至 28 日的总市值合计为 9.24 万亿美元。与美国半导体指数创出新高的 7 月 10 日(10.36万亿美元)相比减少了约 1 万亿美元。

今年 2 月,由于生成了不符合历史事实的人类图像而引发争议,Google 暂停了生成人类图像的功能。时隔半年之后,Google 官方博客宣布其 Imagen 3 模型将在未来几天向 Gemini Advanced、Business 和 Enterprise 用户提供人类图像生成功能。为避免生成受争议图像,Imagen 3 包含了安全保护措施,不支持生成照片级写实主义图像、可识别个人、描述未成年人或过度血腥、暴力或性爱场景的图像。举例来说,Google AI 会拒绝“拜登总统打篮球”之类图像生成要求。

2022 年 11 月,OpenAI 公司推出 ChatGPT,这款 AI 工具,能通过学习和理解人类的语言来进行对话,并且有很强的自然语言生成能力。近两年,国内的 AI 通用大模型例如文心一言、通义千问、Kimi 等也陆续进入市场。AI 离日常生活越来越近,不可避免地入侵到毕业论文。2024 届毕业生,也成为第一波在论文中大规模使用 AI 的群体。一名大学生称,不管是课程论文还是毕业论文,使用 AI 几乎成了学校里「公开的秘密」。高校教师们也逐渐感受到了 AI 的入侵。在社交媒体上,一边是学生们的使用攻略,另一边也不乏老师们的观察。中国政法大学人文学院的老师王敬雅发现,由 AI 生成的论文最大的特点,就是容易出现「假大空的车轱辘话」,给出一个论点,得到三个分论点;拿其中的分论点追问,再次得到三个分论点。但往往没有什么研究意义。王敬雅平时和同事们交流时,大家还提起,如今马克思主义学院成了 AI 的「重灾区」,其他专业的作业、论文也同样,越是标准化、程式化的内容,学生越容易用 AI 替代完成。

数学软件 Mathematica 的作者、计算知识引擎 Wolfram Alpha 的创始人、数学家和计算机科学家 Stephen Wolfram 认为需要哲学家参与 AI 相关重要问题的讨论。他的母亲是牛津大学的哲学教授。Wolfram 年轻时对哲学这一主题兴趣缺乏,但年长的他认为哲学的严谨性对 AI 研究越来越重要。他举例说,当开始讨论给 AI 设置护栏时,这个问题本质上就是一个哲学问题。当科技行业的人说要给 AI 设置这个或那个,让 AI 做正确的事情。但什么是正确的事?这是一项决定道德选择的问题,是哲学练习之一。他说,科学家通常难以用哲学术语思考问题,因为科学是一种渐进发展的领域,不会遇到需要用完全不同的思考方法。如果哲学主要用于回答存在主义的重大问题,那么随着 AI 的影响日益深远我们将迎来哲学的黄金时代。我们面临的很多 AI 问题事实上都曾是传统哲学论的核心问题。Wolfram 认为哲学家可能比科学家更有能力应对 AI 带来的范式转变。

尽管美国的制裁旨在限制中国在 AI 上取得进展,但中国科技巨头今年在 AI 基础设施上大举投资,资本支出翻了一番。阿里巴巴、腾讯和百度今年上半年合计资本支出 500 亿元人民币,而去年同期为 230 亿元人民币。这几家集团表示,支出重点是购买处理器和基础设施,为 AI 的大型语言模型训练提供支持,包括它们自己的模型和其他公司的模型。TikTok 母公司字节跳动也增加了 AI 支出,它是非上市公司,不受投资者审查,拥有逾 500 亿美元现金储备。阿里巴巴上半年资本支出 230 亿元人民币,比去年同期增长 123%。尽管美国限制向中国出售最先进的 AI 芯片,但中国科技公司正大量采购允许出口的芯片如英伟达的 H20。英伟达未来几个月将向中国公司出口逾百万个价格在 1.2-1.3 万美元的 AI 芯片,它主要的客户是字节跳动。字节跳动除了购买 H20 用于中国的数据中心,还在马来西亚的 Johor 与合作伙伴建造数据中心。腾讯今年上半年资本支出 230 亿元人民币,同比增长 176%。百度的 AI 支出相当克制,它上半年支出 42 亿元人民币,同比增长 4%。

愈来愈多的投资者担心 AI 并不能带来他们所寻求的巨额利润。过去几周,驱动 AI 革命的几家西方公司的股价下跌了 15%。观察家们开始质疑大模型的局限性。大型科技公司已在 AI 上投入了数百亿美元,并承诺未来会投入更多。数据显示,只有 4.8% 的美国公司在产品和服务中使用 AI,相比下年初这一比例高达 5.4%。AI 会改变世界还是今天的 AI 狂热只是昙花一现,目前还难以判断。科技巨头们面临的一大挑战是证明 AI 能帮助实体经济。今天的 AI 热也许“来的容易去的也快”。

一项借助人工智能预测地震的新尝试给人们带来了希望,有朝一日这种技术可以用来限制地震对生活和经济的影响。人工智能算法由德克萨斯大学奥斯汀分校的研究人员开发,在中国进行的为期七个月的试验中,该算法在地震发生前一周正确预测了70%的地震。研究人员训练人工智能检测实时地震数据中的统计突变,并将这些数据与之前的地震配对。结果,在每周一次的预测中,人工智能成功预测了 14 次地震,距离它估计的地震发生地点约 200 英里,强度几乎完全一致。它错过了一次地震,并发出了 8 次错误警报。目前还不知道同样的方法是否能在其他地点奏效,但这项工作是人工智能驱动的地震预报研究的一个里程碑。

英国巴斯大学和德国达姆斯塔理工大学的研究人员报告,ChatGPT 等大模型 (LLM) 无法独立学习或获得新技能,意味着它们不会对人类构成生存威胁。研究表明,LLM 具有遵循指令和精通语言的表层能力,但如果没有明确的指导,它们不具有掌握新技能的潜力。这意味着它们是可控的、可预测的和安全的。研究小组的结论是,在越来越大数据集上训练的 LLM 可以继续部署而不会有安全问题,但该技术仍然可能会被滥用。

1