LLM (共3篇)

ARS

AI能重写开源代码,它也能改写许可协议吗?

随着AI模型如大型语言模型(LLM)在代码生成领域的迅猛发展,一个棘手问题浮出水面:AI训练于海量开源代码,能否生成遵守原许可的作品?是合法的‘逆向工程’,还是需受原许可约束的‘衍生作品’?Ars Technica文章探讨了这一法律和技术交汇的争议,涉及GitHub Copilot等工具的诉讼案例,以及开源社区的担忧。未来,开源许可或需进化以应对AI时代。

人工智能 开源代码 许可协议
151
ARS

LLM大规模揭露化名用户,准确率惊人

化名(pseudonymity)从未是完美的隐私保护手段,而大型语言模型(LLM)的兴起正让它变得毫无意义。Ars Technica报道,一项新研究显示,LLM能通过分析用户在不同平台上的写作风格和内容,大规模识别化名账户,准确率高达90%以上。这不仅挑战了在线匿名传统,还引发了对隐私、言论自由的深刻担忧。随着AI工具的普及,互联网用户需重新审视匿名策略。

LLM 隐私保护 匿名性
216
TC

谷歌Gemini 3.1 Pro模型再创基准测试新纪录

谷歌最新发布的Gemini 3.1 Pro模型在多项基准测试中取得历史性成绩,再次刷新纪录。该模型承诺提供更强大的大语言模型(LLM)能力,能够处理更复杂的任务形式,包括多模态推理、长上下文理解和高级代码生成。相比前代,Gemini 3.1 Pro在数学、编程和常识推理等领域表现出色,领先OpenAI的GPT-5和Anthropic的Claude 4。这标志着谷歌在AI竞赛中强势回归,预计将推动企业级AI应用的快速发展。(128字)