作者: 1chigua

  • 所有人都在劝别裸辞的环境下,为什么还有那么多人离职?

    这个问题提的,就好像是在问:
    为什么那么多人都结婚了,你还一直单着?
    为什么别人都生小孩了,你们还一直丁克 ?
    为什么大家都买房了,你这株韭菜怎么就不长出来?
    为什么大家都买车了,你还开着你那辆破摩托?
    为什么大家都选择上班,你为什么可以做自由职业?
    为什么创业成功的概率那么低,你还要选择去创业?
    为什么?
    因为我是我,我不是别人。
    觉得待着不舒服就辞职,为什么要听别人的劝,然后给出的理由是,大家都不敢裸辞,所以我也不能裸
    辞?
    这是什么道理?
    合着得大多数人能裸辞的时候,我才可以裸辞?
    为什么做什么事都要跟别人一样。
    不管人社局统计的数据,就业率怎么样怎么样,失业率怎么样怎么样,那都是别人,行,你要把我算进去
    也行。
    难道985硕士毕业的都在挤着去考公,我就得跟他们一样?理由是现在大环境就业形势不好,我就得将就?
    每个人的职业生涯只有一次,选择做什么工作,要不要裸辞,要不要去大公司,要不要进体制,要不要创
    业,应该是遵循自己的内心想法,以及现实的实际情况结合起来做出选择。
    而不是别人都那么做,所以,我就必须跟别人一样。
    要不要离职这件事本来就是很私人的:
    也许是工资低、也许是家里突然有事,也许是自己的职业目标与公司的发展目标不一致,也许是加班加得
    太严重了,也许就是单纯想空窗期一下。
    为什么要将这样一件非常私人的事情,跟什么大环境扯在一起。
    一个非常搞笑的逻辑就是:自己永远在拼命地追赶周围人的步伐,别人有的自己也应该有,以便在集体中
    寻找组织的安全感,但又想赚得比别人多,过得比别人好,想出人头地。
    不焦虑,才怪。

    感性的人则通常喜欢凭借感情做事,不做深入的思考,甚至不考虑事情的后果,因此做事时往往会不够理智和比较冲动。

  • 最强开源大模型一夜封神,Llama 3.1震撼发布,真正的全民GPT-4时代来了

    榨干16000块H100、基于15亿个Tokens训练。

    智东西7月24日报道,昨夜,Meta宣布推出迄今为止最强大的开源模型——Llama 3.1 405B,同时发布了全新升级的Llama 3.1 70B和8B模型。

    Llama 3.1 405B支持上下文长度为128K Tokens,在基于15万亿个Tokens超1.6万个H100 GPU上进行训练,这也是Meta有史以来第一个以这种规模进行训练的Llama模型。

    研究人员基于超150个基准测试集的评测结果显示,Llama 3.1 405B可与GPT-4o、Claude 3.5 Sonnet和Gemini Ultra等业界头部模型媲美

    除了性能强劲外,Meta创始人兼CEO马克·扎克伯格还亲自发文助阵,他称,除了比闭源模型成本和性能更优,405B开源模型将成为企业微调和训练较小模型的最佳选择

    Meta AI宣布接入Llama 3.1 405B,并推出AI图片编辑、AI编程、VR/AR设备智能助手等新功能。扎克伯格预测,Meta AI助手使用率几个月后将超越ChatGPT

    Meta的开源生态圈也已准备就绪。Meta与超过25个合作伙伴将提供Llama 3.1模型,包括亚马逊AWS、英伟达、Databricks、Groq、戴尔、微软Azure和谷歌云等。

    迄今为止,所有Llama模型版本的总下载量已经超过3亿次,与主流闭源模型能力相当的Llama 3.1模型发布或许意味着,Meta要讲的开源模型故事刚刚开始……

    模型下载链接:

    https://llama.meta.com
    https://huggingface.co/meta-llama

    论文链接:

    https://t.co/IZqC6DJkaq

    ▲Meta Llama 3.1模型论文解读摘要

    01.405B开源模型对标GPT-4o,25家合作伙伴已就绪

    Meta评估了超150个基准数据集的性能,Llama 3.1 405B在常识、可操作性、数学、工具使用和多语言翻译等一系列任务中,可与GPT-4o、Claude 3.5 Sonnet和Gemini Ultra相媲美。

    在现实场景中,Llama 3.1 405B进行了与人工评估的比较,其总体表现优于GPT-4o和Claude 3.5 Sonnet

    升级后的Llama 3.1 8B和70B模型,相比于同样参数大小的模型性能表现也更好,这些较小参数的模型支持相同的128K Tokens上下文窗口、多语言、改进的推理和最先进的工具使用,以支持实现更高级应用。

    Meta更新了许可证,允许开发人员首次使用包括405B参数规模的Llama模型的输出来改进其他模型。

    同时,Meta的开源生态进一步扩张,已经有超过25个企业推出了Llama 3.1新模型。

    其中,亚马逊云科技、Databricks和英伟达正在推出全套服务,以支持开发人员微调和训练自己的模型。AI芯片创企Groq等为Meta此次发布的所有新模型构建了低延迟、低成本的推理服务。

    同时这些模型将在亚马逊云科技、微软Azure、谷歌云、Oracle等主要云平台上提供服务。

    Scale AI、戴尔、德勤等公司已准备好帮助企业采用Llama模型并使用自己的数据训练定制模型。

    Llama 3.1 405B不仅是最强开源模型,还有望成为最强模型,开源和闭源的距离再次大大缩短。

    02.完整优化训练堆栈,专注于让模型可扩展

    为了能基于15万亿个Tokens进行模型训练,同时在合理时间内实现研究人员想要的效果,Meta对训练堆栈进行了完整优化。

    在解决上述难题方面,Meta选择专注于保持模型开发过程可扩展并更直接的策略:

    1、研究人员选择了标准仅解码器的Transformer模型架构进行小幅调整,而不是采用MoE混合专家模型,可以最大限度提高训练稳定性。

    2、研究人员采用了迭代的后训练程序,每轮都使用监督微调和直接偏好优化。这使模型能够为每一轮创建最高质量的合成数据,并提高每项能力的性能。

    与此前Llama系列模型相比,Meta改进了用于训练前和训练后的数据的数量和质量。这些改进包括为训练前数据开发更仔细的预处理和管理pipelines、开发更严格的质量保证,以及训练后数据的过滤方法

    正如大语言模型的Scaling Laws(规模定律)所预期的那样,Meta新旗舰模型优于使用相同策略训练的较小模型。Meta还使用405B参数的模型提高了其较小模型的训练质量。

    同时,为了支持405B参数模型的大规模推理,研究人员将模型从BF16到FP8进行了量化,有效降低了所需的计算要求,并允许模型在单个服务器节点内运行。

    在指令和聊天微调方面,研究人员通过在预训练模型之上进行几轮对齐以生成最终模型,每一轮都涉及监督微调(SFT)、拒绝采样(RS)和直接偏好优化(DPO),其使用合成数据生成来生成绝大多数SFT示例以生成所有功能中更高质量的合成数据。

    此外,Meta采取了多种数据处理技术以将这些合成数据过滤到最高质量,这使新模型能够跨功能扩展微调数据量。

    在数据方面,研究人员还对数据进行了仔细平衡以生成具有所有功能的高质量模型。例如,在短上下文基准上保证模型质量,使其能扩展到128K上下文长度。

    此外,Meta还宣布推出一个整体的Llama系统。该系统除了涵盖Llama模型,还涉及多个组件协调及外部工具调用,以此助开发者开发比基础模型更强的定制产品。

    Llama系统将涵盖一系列新组件,包括开源新的安全工具如Llama Guard 3(多语言安全模型)和Prompt Guard(即时注入过滤器)。为了让分散的组件联接起来,Meta还发布了对Llama Stack API的评论请求,这是一个标准接口,以此第三方项目更轻松地利用Llama模型。

    对于普通开发者来说,使用405B规模的模型仍是一项挑战,这需要大量的计算资源和专业知识。

    基于Llama系统,生成式AI开发不仅仅是提示模型,每个人都应该可以利用405B模型完成更多的任务,包括实时和批量推理、监督微调、针对特定应用评估模型、持续预训练、检索增强生成(RAG)、函数调用、合成数据生成等。

    这是Meta迄今为止推出的最大模型,未来将推出更多设备友好的尺寸、更多模式以及在Agent层面的更新。

    03.405B大模型爆改Meta AI,Quest智能语音助手升级

    现在,Meta旗下的多个终端,比如WhatsApp和Meta AI聊天机器人中都开始使用Llama 3.1 405B。

    Meta AI目前已支持七种新语言,本次Meta推出一批新的Meta AI创意工具,主要聚焦视觉生成、数学和编码等领域。

    首先看看视觉生成,Meta AI推出“想象我(Imagine Me)”图像生成提示功能,支持用户在Meta AI聊天中输入“想象我”并添加提示,例如“想象我是皇室成员”或“想象我在一幅超现实主义绘画中”,就可以生成图像并与朋友和家人分享。

    Meta AI将上线“使用AI编辑(Edit With AI)”功能,用户可以通过点击鼠标轻松添加或删除对象,或更改和编辑它们 ,并保持图像的其余部分不变,比如将“将猫改为柯基犬”。Meta AI还将支持将新制作的图片添加到Facebook帖子中,以及Instagram、Messenger和WhatsApp等社交平台上。

    在数学和编程方面,用户可以通过分步解释和反馈获得数学作业方面的帮助,通过调试支持和优化建议更快地编写代码,并通过专家指导掌握复杂的技术和科学概念。

    用户可以结合Meta AI的编码专业知识和图像生成功能,从头开始构建新游戏或对经典游戏进行全新演绎。只需几分钟即可将奇思妙想变成现实,甚至让用户直接预览游戏。

    值得一提的是,Meta AI也适用于雷朋Meta智能眼镜,并将于下个月在美国和加拿大的Meta Quest上以实验模式推出。Meta AI将取代Quest上当前的语音命令,让用户可以免提控制耳机、获取问题的答案、随时了解实时信息、查看天气等。

    用户还可以将Meta AI与在头显中看到的视图结合使用,比如询问其在物理环境中看到的事物相关情况。

    04.扎克伯格公开信:开源对开发者、Meta、世界都更有利

    Llama 3.1系列刚发布,扎克伯格的长篇公开信同时上线官网,使得开闭源模型之间的火药味更浓了。

    ▲扎克伯格公开信部分截图

    一开始,扎克伯格就提到开源模型与闭源模型之间的差距正在逐渐缩小。去年,Llama 2仅与上一代最先进的闭源模型相当。今年,Llama 3可与最先进的模型媲美,并在一些能力上处于领先地位。

    从明年开始,他预计Llama模型将成为业内最先进的模型。并且当下Llama系列模型已经在开放性、可修改性和成本效益方面处于领先地位。

    在博客中,他回答了为什么开源AI对开发者有利、为什么开源AI对Meta有利、为什么开源AI对世界有利这三大问题。

    首先,为什么开源AI对开发者有利?

    他认为开发者需要训练、微调自己的模型,以满足各自的特定需求;开发者需要掌控自己的命运,而不是被一家封闭的供应商所束缚;开发者需要保护自己的数据;开发者需要高效且运行成本低廉的模型;开发者希望投资于将成为长期标准的生态系统。

    开源AI对Meta的好处在于,Meta的商业模式是为人们打造最佳体验和服务,要做到这一点,他认为必须确保其始终能够使用最佳技术,并且不会陷入竞争对手的封闭生态系统。

    同时,开源AI会促使Meta将Llama发展为一个完整的生态系统,并有成为行业标准的潜力。

    他还提到,Meta与闭源模型玩家之间的关键区别之一是,出售AI模型访问权限不是Meta的商业模式,这意味着开源不会削减其收入、可持续性发展或继续投资研究的能力。

    最后就是Meta拥有悠久的开源项目和成功历史。

    关于开源AI模型安全性的争论,扎克伯格的观点是开源AI将比其他选择更安全。他认为开源将确保全世界更多的人能够享受AI带来的好处和机会,权力不会集中在少数公司手中,并且该技术可以更均匀、更安全地应用于整个社会。

    05.结语:Meta再度落子,大模型开闭源之争生变

    开闭源大模型之争仍在继续……

    从Meta Llama 3.1系列模型的发布,可以看出开闭源大模型之间的差距正在缩小,且大有齐头并进、互相赶超之势。作为开源大模型阵营的忠实拥趸者,同时也是技术创新的先锋,Meta从Llama系列模型发布之初,就坚定要打造自己的开源生态圈。同时,相比于此前的Llama模型,此次新模型发布Meta还将在内部组建团队,让尽可能多的开发人员和合作伙伴使用Llama系列。

    Meta再度落子,使得开闭源模型之争的定论更加扑朔迷离。但归根结底,在实际应用中,很多企业和开发者会根据具体需求和情况选择使用开源或闭源模型,因此模型的具体能力、适用的真实场景等,还需要时间来证明。

  • 有哪些言简意赅的励志句子?

    人生没有彩排,每天都是现场直播。
    只要功夫深,铁杵磨成针。
    失败乃成功之母。
    天生我材必有用。
    少壮不努力,老大徒伤悲。
    吃得苦中苦,方为人上人。
    世上无难事,只怕有心人。
    一寸光阴一寸金,寸金难买寸光阴。
    不经一番寒彻骨,怎得梅花扑鼻香。
    宝剑锋从磨砺出,梅花香自苦寒来。
    书山有路勤为径,学海无涯苦作舟。
    有志者,事竟成。
    只要路是对的,就不怕路远。
    绳锯木断,水滴石穿。
    行动是成功的阶梯,行动越多,登得越高。
    当你感到悲哀痛苦时,最好是去学些什么东西。学习会使你永远立于不败之地。
    莫找借口失败,只找理由成功。
    伟人之所以伟大,是因为他与别人共处逆境时,别人失去了信心,他却下决心实现自己的目标。
    大多数人想要改造这个世界,但却罕有人想改造自己。
    积极的人在每一次忧患中都看到一个机会,而消极的人则在每个机会都看到某种忧患。
    没有一种不通过蔑视、忍受和奋斗就可以征服的命运。
    一个能从别人的观念来看事情,能了解别人心灵活动的人,永远不必为自己的前途担心。
    人之所以能,是相信能。
    一个有信念者所开发出的力量,大于 99 个只有兴趣者。
    每一发奋努力的背后,必有加倍的赏赐。
    不要等待机会,而要创造机会。
    昨晚多几分钟的准备,今天少几小时的麻烦。
    做对的事情比把事情做对重要。
    人格的完善是本,财富的确立是末。
    人生伟业的建立,不在能知,乃在能行。

  • 本周感悟

    这周在上班路上刷到了一个我很感兴趣的博客,叫做《肥话连篇》,这档节目是由一对情侣作为主播,吸引我的是无意中刷到的一期节目,题目是《停止脑补,高敏感也可以不内耗》。

    男主播肥杰一直是个敏感的人,比如,感官和秩序敏感,所以怕脏、对整洁要求贼高;人际敏感,所以特别关注其他人的感受、总不自觉地讨好和服务,在社交中很累。跟我特别像,而且我也是第一次意识到秩序感太强,太爱整洁干净其实是一种敏感。

    女直播惠子大部分时候是个大大咧咧,很松弛,但是在工作上也特别敏感,领导或同事的一皱眉、一句话,就能反复思考内耗很久……

    这也让我知道,不管什么样的人都有高敏感的部分,追述原因实际上是因为对于某一部分的不够自信造成的,对于不够自信的糟糕连锁反应,那我可是太有发言权了~~

    等我时间充裕时再来展开说说,还有十五分钟截至打卡了,我得先去打卡了哈哈~

  • 冥想练习: 接纳的力量

    今天的冥想开始,三个大大的鼻吸嘴呼,再进去自然呼吸。

    听外界的声音,汽车的轰鸣声今天尤其大声,夹杂着篮球声、鸟叫声,似乎还路过一辆洒水车,最大声时都盖过了我的手机播放的一声冥想引导,我希望它能小声一些,接下来的声音没有再那么大声。

    身体扫描,原来习惯性地从脚到头,今天转变为从头到脚,似乎更聚精会神了一些。

    标记呼吸时,思绪不断飘走,因为引导语提醒了我一句,我可以用冥想帮助到谁,我想到了瑜阅小镇上加我微信的人们,他们非常需要冥想解压。

    回到今天的主题,接纳,完全接纳并非易事,这时可以多想想塞翁失马,焉知非福中农夫的故事。

    农夫做到了从失去中看到福气,从得到中看到潜藏的危机。唯有保持一颗接纳的平常心,我们才不会得意忘形、怅然若失。

  • 禅心

    绿墙竹影斑驳禅,

    静思禅心意无边。

    流年匆匆尘中事,

    一念心静万般宁。


    绿墙下,竹影斑驳,

    岁月静好,禅意盎然。

    听风拂过,叶语低吟,

    禅心在静默中,淡然无波。

    绿墙外,尘世喧嚣,

    竹影里,心如止水。

    斑驳的光阴,洒落一地,

    禅意悠长,如诗如画。

    绿墙,竹影,斑驳,禅心,

    在这静谧的世界里,找寻自我。

    让心灵沉淀,让思绪飞扬,

    在禅意的世界里,感受生命的韵律。

    绿墙,竹影,斑驳,禅意,

    如同一幅画卷,展现无尽的美好。

    让我们在这画卷中,找寻心灵的归宿,

    让禅心引领我们,走向内心的宁静。