今天中午,Clash 内核 (Clash Core)的 Github 仓库突然被删除。同时基于开源 Clash 内核二次开发的 Clash Meta 项目在 Github 仓库也转为归档状态。
Clash 是各平台 Clash GUI 客户端运行所需的核心。有两个内核版本,开源的内核和闭源的 Premium 内核。
Clash 的安卓客户端 Clash for Android 也已经删库。
至此,Clash 所有内核分支全部删库,大部分流行的客户端也已删库。
除 Clash 家族外,
基于 QUIC 的代理 TUIC 在 Github 的仓库也已转为归档并删除所有文件。
openwrt 平台的代理客户端 ShellClash 和 helloworld 也已经删库或隐藏。
整理如下:
https://github.com/Dreamacro/clash
https://github.com/MetaCubeX/Clash.Meta
https://github.com/EAimTY/tuic
https://github.com/Kr328/ClashForAndroid
https://github.com/MetaCubeX/ClashMetaForAndroid
https://github.com/yichengchen/clashX
https://github.com/fw876/helloworld
https://github.com/juewuy/ShellCrash
https://github.com/ModuleList/ClashF
https://github.com/CHIZI-0618/box4magisk
https://github.com/lotusnetwork/lotusboard
(部分内容综合网友整理)
——————
11 月 2 日下午,Clash For Windows 作者宣布停止更新,时间持续发酵,一度引发网友猜测,并于当晚冲上微博热搜。
11 月 3 日下午,Clash 内核删库,引发一众开源代理软件恐慌性删库或隐藏。
只能说,代理软件在国内本就是见不得光的东西,往国内传的确是不对的。
现在都上微博热搜了,作者避个风头也是可以理解的事情。
据DataLearner,OpenAI 在 ChatGPT 网页上的一段 JavaScript 文件中暗示了即将为 ChatGPT 推出新的付费档位。
ChatGPT 团队计划面向的是小型团队人员,具体规则如下:
·每个团队至少3个用户,每个用户每个月订阅费30美元;
·如按年付费,每个用户每个月25美元
·按月付费的用户可以随时增减用户,按年付费的用户随时增加用户,但是只有续订的时候才可以减少用户。
·ChatGPT 团队计划可以使用不限量和更快速的的GPT-4
·享有4倍长度的上下文(GPT-4-32K)
·不限量的高级数据分析功能
·可以设置团队内部共享的对话模板
·团队版本的数据不会被用于训练模型
——————
src:
https://www.datalearner.com/blog/1051698935813083
本次故障是由于数据中心断电。
Cloudflare正在评估影响数据中心的电力故障,同时进行服务故障转移。
距离上次故障仅仅一周,Cloudflare 再次出现红色故障。
截止发稿已经过去
目前登录面板偶发 504 故障,但勉强可以访问并使用,应为备用机房资源有限导致拥挤。
目前受影响服务包括:
Logpush, WARP / Zero Trust device posture, Magic WAN, Cloudflare dashboard, Cloudflare API, Stream API, Workers API, Alert Notification System, Workers KV namespace operations
距离故障已经超过 12 小时,本次故障仍未完全解决。
——————
src:
https://www.cloudflarestatus.com/
——————
又及,本来我刚打算把 CDN 切到香港阿里云上的……
接着推迟……
原因未知,可能与违反开源协议或其他不可抗力有关。
据了解,CFW 本就不在 github 上开放源代码,因此属于在 Github 上发布的闭源软件。
此次为作者清空了 Release 和 README,
https://github.com/Fndroid/clash_for_windows_pkg
在 2023 云栖大会上,阿里云首席技术官周靖人发布阿里云高校计划“云工开物”,计划将为中国所有在校大学生免费提供一台云服务器,所有高校学生可享受 300 元免费额度。
阿里云官网显示,完成学信网高校学生实名认证的学生即可领取 300 元无门槛优惠券,其中港澳台地区近期开启。
此外,完成高校学生实名认证,且为合作高校的学生即可领取 3 折的阿里云全量公共云产品折扣优惠。
阿里云官方表示,高校学生通用权益面向所有中国高校学生开放,具体包括中国大陆及港澳台地区专科、本科、硕士、博士、在职研究生等高等教育学籍在内的在校学生人群,在此基础上,阿里云合作高校学生可再享受 3 折专属权益。
此外,阿里云合作高校教师(含博士后),提交信息通过后,即可领取 5 折的阿里云全量公共云产品折扣优惠。
——————
为什么我要发这一条旧闻呢?
因为在朋友的帮助下,我得到了正规的“合作高校”权限。
阿里云这次的活动真的非常良心,优先抵扣的是三折券,然后才是 300 代金券,因此你也可以理解为阿里云给我发了一千块代金券。
并且按照规则,这个代金券应该是可以续期的。
感谢阿里云。感谢哥们。这回网站不愁没服务器了。
OpenAI宣布于11月6日举行 OpenAI DevDay。届时会有新产品发布。
据 Apifox 官方下午六时发布的公告,今天有河南地区的用户反馈使用 Apifox 有网络问题,定位后发现这部分河南用户无法访问 api.apifox.cn 这个域名(Apifox的服务端域名)。推测和河南运营商网络有关,其他地区用户无此问题。
据 itdog 拨测,故障应该已经恢复。
——————
编注:
Apifox 使用的是国内阿里云的服务器。
此前同样使用阿里云服务的 Pixso 同样被河南联通错误阻断。
近期内地出现大规模网络阻断/污染现象,许多转发入口机房被通报导致下线(典型的如广移),这似乎可以解释为一种敏感时期的网络管控加强。
百度研发的大模型对话产品「文心一言」早前发布4.0版本,目前已对付费个人用户开放。
据文心一言网页,个人会员订阅价格为49.9元/月,开通后立即可用文心一言4.0,但仍有100条/3h 的对话限制。
阿里云刚刚在 2023 年云栖大会上正式发布了通义千问 2.0 ,官方表示,「目前通义千问的综合性能已经超过 GPT-3.5,正加速追赶GPT-4」。
该模型目前已在阿里云上可用,无需等候。另外,通义千问 APP 现已经开放体验,新增语音对话功能。
阿里云 CTO 周靖人宣布将在 11 月开源通义千问 720 亿参数模型。周靖人表示,通义千问 72B 将成为参数规模最大的中国开源大模型,继续支持全球开发者开展模型和应用创新。此外,未来阿里云将持续发布更大规模的开源模型。
此前,昆仑万维宣布 开源 百亿级大语言模型「天工」Skywork-13B 系列,并配套开源了600GB、150B Tokens 开源中文数据集。
——————
src: https://mp.weixin.qq.com/s/TeDJIxdPni6SzHsEf9iGnw
——————
近期是国产大模型们爆发迭代的一段时间,不少厂商都宣布对标 OpenAI 或开源自己的模型。
让我们拭目以待。
苹果举办线上特别活动
苹果正举办线上特别活动,已经发布 M3、M3 Pro 和 M3 Max 产品,并将装配于 MacBook Pro 上,起售价为 1599 美元。(8GB内存预警)
M3 的 CPU 性能比 M2 提升 20%。
M3 Max 性能比 M2 Max 提升 50%。
支持了 AV1 解码。
M3 芯片的神经计算引擎(Neural Engine)比 M1 系列快 60%。
M3 Pro 芯片有 12 核 CPU 和 18 核 GPU。
M3 Max 芯片拥有 16 核 CPU 和 40 核 GPU,内存更大,最高可达 128G。
苹果也发布了搭载 M3 处理器的新款 iMac 电脑等其他 Mac 产品。
——————
详细总结见
https://t.me/NewlearnerChannel/11917
——————
本次发布会约半小时,除发布新款 Mac 产品外并无其他惊喜。
你可以理解为这是一次「M3」发布会,
至于几款Mac,除了换芯片以外并无改变。
可以说 M3 的提升幅度是有限的,远没有先前传的「超过 M2 Pro,接近 M2 Max的 90%」这么夸张。
这个更新幅度大概就是骁龙 8G2 到 8G3 的提升。
都说 A 系列是 M 系列的试验田,这次网格着色、光线追踪果然是从移动端「下放」到桌面端的功能。
应该说补了一下 M 系列曾经的短板,但补得怎么样还暂时不得而知。
但是 iMac 仍然使用 Lightning 接口这事嘛……
纯纯省钱抠门不思进取,大家一起狠狠骂都不过分。
苹果正举办线上特别活动,已经发布 M3、M3 Pro 和 M3 Max 产品,并将装配于 MacBook Pro 上,起售价为 1599 美元。(8GB内存预警)
M3 的 CPU 性能比 M2 提升 20%。
M3 Max 性能比 M2 Max 提升 50%。
支持了 AV1 解码。
M3 芯片的神经计算引擎(Neural Engine)比 M1 系列快 60%。
M3 Pro 芯片有 12 核 CPU 和 18 核 GPU。
M3 Max 芯片拥有 16 核 CPU 和 40 核 GPU,内存更大,最高可达 128G。
苹果也发布了搭载 M3 处理器的新款 iMac 电脑等其他 Mac 产品。
——————
详细总结见
https://t.me/NewlearnerChannel/11917
——————
本次发布会约半小时,除发布新款 Mac 产品外并无其他惊喜。
你可以理解为这是一次「M3」发布会,
至于几款Mac,除了换芯片以外并无改变。
可以说 M3 的提升幅度是有限的,远没有先前传的「超过 M2 Pro,接近 M2 Max的 90%」这么夸张。
这个更新幅度大概就是骁龙 8G2 到 8G3 的提升。
都说 A 系列是 M 系列的试验田,这次网格着色、光线追踪果然是从移动端「下放」到桌面端的功能。
应该说补了一下 M 系列曾经的短板,但补得怎么样还暂时不得而知。
但是 iMac 仍然使用 Lightning 接口这事嘛……
纯纯省钱抠门不思进取,大家一起狠狠骂都不过分。
10 月 30 日,百川智能发布 Baichuan2-192K 大模型,目前已经正式开启内测。
据新闻稿,其上下文窗口长度高达 192K,文本长度相当于约 35 万个汉字,是目前全球最长的上下文窗口。
——————
src:Founder Park
#Update #ChatGPT
ChatGPT 开始灰度推送:
- 可上传包括 PDF、数据文件在内的任意文档,并进行分析
- GPT-4 (All Tools) 将能够自主判断是否需要 Browsing、Advanced Data Analysis、DALL-E,并且自主选择一个或串联多个工具完成任务
- 用户获得全工具版 GPT-4 后可手动在 GPT-4 (All Tools) 模式和手动选择工具模式之间切换
OpenAI 官方未发布任何文档说明,以上内容根据多个 X 用户和讨论群组内的信息交叉验证。
讨论群组:@ai_copilot_group
ChatGPT 开始灰度推送:
- 可上传包括 PDF、数据文件在内的任意文档,并进行分析
- GPT-4 (All Tools) 将能够自主判断是否需要 Browsing、Advanced Data Analysis、DALL-E,并且自主选择一个或串联多个工具完成任务
- 用户获得全工具版 GPT-4 后可手动在 GPT-4 (All Tools) 模式和手动选择工具模式之间切换
OpenAI 官方未发布任何文档说明,以上内容根据多个 X 用户和讨论群组内的信息交叉验证。
讨论群组:@ai_copilot_group
讣告已于昨日傍晚发布。
10 月 27 日,智谱 AI 推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品,也开源了其新发布的多模态大模型 ChatGLM3-6B 模型。
新闻稿中,其自称“国内唯一一个有对标 OpenAI 全模型产品线的公司”。