查看原文
其他

智能晚报|欧洲议会通过《人工智能法案》草案;Yann LeCun发布「类人」新模型I-JEPA...

陆彦君 新皮层NewNewThing 2023-08-02

「每天重要的新闻不会超过五条」


整理:陆彦君

编辑:王杰夫

Key Points


欧洲议会通过《人工智能法案》草案。


Yann LeCun发布「类人」新模型I-JEPA。


成立仅4周的欧洲初创公司Mistral创纪录筹资1.05亿欧元。


百川智能发布70亿参数开源中英文大模型。


Google生成式AI支持线上购物虚拟展示功能。


欧洲议会通过《人工智能法案》草案,距离禁止实时(real-time)面部识别技术又近了一步

当地时间6月14日,欧盟《人工智能法案》(AI Act)有了里程碑式的进展:欧洲议会以499票赞成、28票反对和93票弃权通过了全部草案。

此次投票为欧洲议会、欧盟成员国和欧盟委员会即将到来的「三方」谈判铺平了道路。该谈判将在2023年6月至12月西班牙担任欧洲理事会轮值主席国期间继续。顺利的话,该法案预计将在今年年底获得最终批准,并最终在24个月后,也就是2026年开始对相关企业产生实际影响。

该法案重点规定了什么?

  • 禁止实时面部识别技术

    这是争论的核心议题之一。其实在去年年底,欧盟成员国曾经通过修正案,允许在特殊执法情况下——部分右翼立法者希望将寻找失踪儿童和防止恐怖袭击的情况纳入其中——使用实时面部识别,但这些修正案在此次表决中被否决。

    值得注意的是,被禁止的只有实时面部识别技术,非实时(post)的识别技术并没有被禁,这意味着可以对已存档的监控录像做面部识别。此外,法案还规定禁止企业从社交媒体上抓取生物识别数据来建立数据库。

  • 要求披露生成式AI训练数据版权

    AI法案不会将ChatGPT等生成式AI判定为高风险,但对这些需要大量数据训练的AI新增了透明度和风险评估要求。该法案要求彻底记录任何用于训练AI的原始内容,包括文本、图像、视频和音乐。OpenAI、Google和微软等公司都被要求申明,训练AI时所使用的材料不存在版权问题。

这对科技公司意味着什么?

  • 初创企业更难参与竞争:AI数据平台Apheris CEO Robin Röhm(罗宾·罗姆)认为,该法案草案通过标志着AI监管取得里程碑式的进步,但提出的问题多于解决的问题。法案提高了训练生成式AI的门槛,初创公司将更难与大公司竞争,投资者也不太乐意将资金投入到在欧盟运营的公司。

  • 企业或将面临巨额罚款:如果技术公司的行为违反《人工智能法案》,极端情况下,该公司全球年收入的6%可能会用于缴纳罚款,对Google和微软等技术公司而言,罚款可能高达数十亿美元。而欧盟在未来10年可能会收获高达1.3万亿美元的巨额罚金。


参考链接

https://www.bloomberg.com/news/articles/2023-06-14/eu-lawmakers-vote-to-ban-remote-face-scanning-in-public?srnd=technology-ai

https://www.artificialintelligence-news.com/2023/06/14/european-parliament-adopts-ai-act-position/


Yann LeCun发布新模型I-JEPA,可以像人一样补全图像


6月14日,Meta AI首席科学家Yann LeCun(杨立昆)联合麦吉尔大学、魁北克人工智能研究所和纽约大学的团队发布论文,公布了一种新的AI图像创建模型I-JEPA。

新架构以自监督学习(self-supervised learning)的方式训练,以完成图像中看不见的细节,它可以比现有模型更准确地分析和完成缺失的图像。Meta官方在文章结尾称该模型通过自监督的方式学习,是迈向「世界模型」的重要一步。

为什么说I-JEPA架构更像人了?

人类是通过观察外部世界学习知识的。据推测,习得常识信息是实现智能行为的关键,Meta训练I-JEPA架构的思路正是如此。研究者尝试设计出一种学习算法,捕捉关于世界的常识背景知识,然后将其编码为算法可以访问的数字表征。

系统以自监督的方式学习这些表征,意思就是,I-JEPA直接从图像或声音等未标记的数据中学习,而不是从手动组合的标记数据集中学习。在更高的层级上,I-JEPA会根据同一输入(图像或文本)的其他部分的表征,来预测输入的部分表征。

和类GPT模型的区别在哪里?

LeCun认为,理想的AI会拥有人类的水平,而根据概率生成自回归的大模型例如ChatGPT根本无法破除幻觉难题,他甚至断言:GPT模型活不过5年。I-JEPA是通过创建外部世界的内部模型来学习。

在补全图像的过程中,它会根据图像的抽象表征完成预测,因此I-JEPA能够在一定程度上避免生成偏见性或扭曲的内容。相反,一般的生成式模型的训练方法通常依赖更广泛的训练数据,会通过移除或扭曲输入模型的部分内容来学习。例如,生成式AI很难生成正确的人手,也更容易产出虚实混杂的信息。

到底什么是LeCun心心念念的「世界模型」

LeCun一直认为,要制造一个拥有匹敌人类智能的AI,依靠当前流行的大模型这条路是走不通的。在他的认知里,人类智能的关键在于能够建立一个对外部世界的认知模型,并基于这个模型对事物发生的下一步状态作出预测。他一直在尝试为AI构建这样一个「世界模型」,到那个时候,AI不是通过大数据计算概率来猜测答案,而是真正有逻辑的去思考。


论文地址

https://arxiv.org/abs/2301.08243

参考链接

https://the-decoder.com/yann-lecun-is-betting-everything-on-a-new-ai-paradigm-and-it-looks-like-its-working/


成立仅4周的欧洲初创公司Mistral创纪录筹资1.05亿欧元

微软和Google在生成式AI领域打得难舍难分,欧洲除了立法监管AI外,那片大陆上的创业公司终于也有了新动态。据《金融时报》报道,4周前刚成立的法国初创公司Mistral AI在种子轮融资中创纪录地筹集到1.05亿欧元。公司成员在上周才刚刚开始工作,这家公司计划在2024年发布其第一个基于文本的生成式AI模型。

创始人都是谁?

Mistral三位创始人分别是Guillaume Lample、Arthur Mensch和Timothee Lacroix,平均年龄在30岁左右。Mensch曾在Google旗下的DeepMind从事AI研究,Lacroix和Lample曾在Meta担任AI研究员。

投资人都有哪些?

此次投资方里有不少欧洲资本,他们终于参与到了这个原本由硅谷资本主导的游戏里。本轮融资由Lightspeed Ventures Partners 领投,法国的Redpoint、Index Ventures、Xavier Niel、JCDecaux Holding、Rodolphe Saadé 和 Motier Ventures,德国的 La Famiglia和Headline,意大利的Exor Ventures,比利时的Sofina,以及First Minute Capital 和LocalGlobe在英国也都参与了投资。Mistral AI还指出,法国投资银行Bpifrance和Google前CEO Eric Schmidt(埃里克·施密特)也是股东。

为何能获得创纪录的融资?

有关生成式AI的竞争无异于一场军备竞赛,大模型人才格外稀缺。Lightspeed的投资人Antoine Moyroud认为,目前世界上只有70到100人拥有构建和优化大语言模型的专业知识。而Mistral的创始人之一Lample曾领导Meta的大模型团队完成 LLaMA 的开发,自然能够得到资本的青睐。

同时,欧洲也希望能够孵化出对标OpenAI或者DeepMind的AI巨头。Mistral CEO Arthur Mensch表示:「人们越来越意识到AI的变革性,欧洲需要为此做点什么,无论是作为监管机构、客户还是投资者。」

此外,Mistral在种子轮融资阶段释放了近一半(43%)的股权可能也是它能够获得高额融资的原因之一,在筹集到1.05亿欧元的同时公司的估值为2.4亿欧元。这种激进的融资方式令很多人感到意外。要知道在硅谷一般种子轮最多稀释15%左右的股权,这样不仅为之后其他投资人进入留足空间,也更能起到激励创始团队的作用。一口气稀释掉如此多的股权,或许Mistral团队认为融到的这笔钱够用上好一阵了吧。


参考链接

https://techcrunch.com/2023/06/13/frances-mistral-ai-blows-in-with-a-113m-seed-round-at-a-260m-valuation-to-take-on-openai/amp/


百川智能发布70亿参数开源中英文大模型

6月15日,王小川组建的「百川智能」正式推出首个中英文预训练大模型——baichuan-7B,该模型基于Transformer结构、在大约1.2万亿tokens上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。该模型使用的原始数据包括开源的中英文数据和自行抓取的中文互联网数据,以及部分高质量知识性数据。

虽然王小川在采访中自称打榜不是目的,百川智能还是详细放出了该模型在各个基准的跑分成绩,它在C-Eval、AGIEval和Gaokao三个具有影响力的中文评估基准完成了综合评估,且都取得了超出平均水平的成绩。

目前,百川智能宣布将代码开源,可免费商用。北京大学和清华大学已率先使用baichuan-7B模型推进相关研究工作。


参考链接

https://github.com/baichuan-inc/baichuan-7B


Google生成式AI支持线上购物虚拟展示功能

6月15日,Google开始将生成式AI应用到在线购物领域,消费者使用Google购物时可以看到衣服在虚拟模特身上的效果。「我们想让Google成为消费者购物的场所,以及商家与消费者联系的场所。」Google商务副总裁Maria Renz在接受采访时表示。

Google是怎么实现虚拟展示的?

Google开发了一种新的基于图像的AI模型。在开发时,Google考虑了织物在试穿时拉伸和起皱的状态,以产生逼真的图像。研究者使用多对图像训练模型,每对图像包括了两种不同姿势的模特。例如,穿衬衫的人侧身站的图像和正面的图像各一张。为优化模型,避免模特看起来畸形或者衣服出现褶皱,研究者使用随机的服装和人物图像对重复该过程。

AI试衣并不新鲜,Google的创新在哪里?

亚马逊、沃尔玛和Adobe等公司一直在尝试生成服装建模。去年,沃尔玛提供了一项在线功能,使用客户照片为服装建模。AI创业公司AIMIRR更进一步,使用实时服装渲染技术将服装图像叠加在一个人的实时视频上。

不过,与之前各家解决方案更关注个性化,都需要用户上传自己的照片「叠」在模特身上不同;Google只关注衣服的上身效果。用户只要寻找到跟自己外形相似的模特,就能感受到这件衣服是否适合自己。为此Google训练了各种各样不同身材、肤色、体型和头发的虚拟模特,来供用户选择。

消费者怎么使用?

从今天开始,使用Google购物的美国消费者在Google搜索中寻找「Try on」(试穿)按钮,即可虚拟试穿Anthropologie、Everlane、H&M 和LOFT等品牌的女装上衣。男装的试穿功能将于今年晚些时候推出。


参考链接

https://techcrunch.com/2023/06/14/googles-new-generative-ai-lets-you-preview-clothes-on-different-models/

-END-


我们是一个诞生于GPT浪潮、由《第一财经》YiMagazine孵化的全新内容IP。

和每一位关心技术、关照人的命运的读者一样,我们希望在这个有史以来不确定性最高的时代,更好地理解快速变化的科技世界,也更好地理解生而为「高级智能」的我们自己。

在这个目标下,我们计划从学术、商业、伦理、监管等多个角度报道和讨论与「智能」相关的议题。请注意,我们说的是智能,不只是AI。


若想了解更多当日资讯,请点击阅读往期智能晚报

智能晚报|OpenAI大幅更新API,或导致与微软矛盾加剧;Google提出新的AI监管模式,与OpenAI截然相反...

若想了解科技大佬都说了些什么,请点击阅读往期

对话|王小川:人工智能的奇点2033年就会到来(上)

对话|王小川:人工智能的奇点2033年就会到来(下)


与记者交流,可添加微信(请备注公司名称和姓名):

王杰夫 微信号: wjfsty

张司钰 微信号: helianthus351

吴洋洋 微信号: qitianjiuye

 

喜欢就关注我们吧,记得设为星标」


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存