Elasticsearch 再次开源
2024年9月5日 | by mebius
作者:来自 ElasticShay Banon
[D.N.A] Elasticsearch 和 Kibana 可以再次被称为开源了。很难表达这句话让我有多高兴。我真的激动得跳了起来。Elastic 的所有人都是这样的。开源已经融入我的 DNA,也融入了 Etgcodelastic 的 DNA。能够再次将 Elasticsearch 称为开源是一种纯粹的快乐。
[LOVE.] 简而言之,我们将在接下来的几周内在 ELv2 和 SSPL 的旁边添加 AGPL 作为另一种许可证选项。在更改许可证后,我们从未停止过相信和践行开源社区的行为。但是通过使用 AGPL,这个被 OSI 批准的许可证,我们可以再次使用 “开源” 这个词,这消除了人们可能存在的任何疑问或误解。
[Not Like Us] 我们从未在 Elastic 停止对开源的信仰。我也从未停止对开源的信仰。作为一个真正的信徒,我已经坚守了近 25 年。那么,为什么我们在 3 年前做出改变?我们当时遇到了与 AWS 的问题,以及他们的产品造成的市场混乱。在尝试了我们能想到的所有其他选项后,我们更改了许可证,知道这将导致 Elasticsearch 的分支以不同的名称和轨迹发展。这是一个漫长的故事。
[Like That] 好消息是,虽然这很痛苦,但它奏效了。3 年后,亚马逊完全投资于他们的分支,市场混乱已经(大部分)得到解决,我们与 AWS 的合作关系比以往任何时候都更加牢固。我们甚至被评为年度 AWS 合作伙伴。我一直希望时间会过去足够长,让我们感到安全,可以重新成为一个开源项目 – 现在终于做到了。
[All The Stars] 我们希望让用户的生活尽可能简单。我们有些人非常喜欢 ELv2(一个受 BSD 启发的许可证)。我们有一些人认可 SSPL(通过 MongoDB 的使用获得认可)。这就是为什么我们只是添加另一个选项,而不是删除任何东西。如果你已经使用并喜欢 Elasticsearch,请继续,没有任何变化。对于其他人,你现在也可以选择 AGPL。
[LOYALTY.] 我们选择 AGPL,而不是其他许可证,因为我们希望通过与 OSI 的合作,帮助在开源许可世界中拥tgcode有更多选择。而且看起来另一个 OSI 批准的许可证将与 SSPL 和/或 AGPL 相呼应。嘿,也许随着事态的发展,AGPL 已经足够适合像我们这样的基础设施软件了(例如,Grafana 从 Apache2 迁移到 AGPL)。我们致力于找出答案。
[euphoria -欣快] 我很高兴能够再次称 Elasticsearch 为开源。
[Alright] 任何改变都会引发混淆,当然,也可能会有喷子。(喷子总是存在的,对吧?)让我们试着回答一些这些问题,这也许很有趣。以下是我能想到的一些问题,但让我们继续补充。
- “更改许可证是一个错误,Elastic 现在放弃了这一选择”。三年前,我们更改了许可证,消除了很多市场混乱。由于我们的行动,很多事情都发生了变化。现在的形势完全不同了。我们不再生活在过去。我们想为用户创造更美好的未来。正是因为我们当时采取了行动,我们才有能力现在采取行动。
- “AGPL 不是真正的开源,许可证 X 才是”:AGPL 是 OSI 批准的许可证,并且被广泛采用。例如,MongoDB 曾经是 AGPL,而 Grafana 是 AGPL。这表明 AGPL 不会影响使用或受欢迎程度。我们之所以选择 AGPL,是因为我们相信这是与 OSI 一起为世界上更多开源铺平道路的最佳方式,而不是更少。
- Elastic 改变许可证是因为他们经营不善” —— 首先我要说的是,我今天对 Elastic 的未来感到比以往任何时候都更加兴奋。我对我们的产品和团队的执行力感到非常自豪。我们为 GenAI 用例提供了StatelessElasticsearch、ES|QL 和大量向量数据库/混合搜索改进。我们在日志记录和可观察性方面大量依赖 OTel。我们的安全 StgcodeIEM 产品不断添加令人惊叹的功能,它是市场上增长最快的产品之一。用户的反应令人谦卑。股市会有起伏。我可以向你保证的是,我们总是在考虑长远,而这种变化就是其中的一部分。
如果我们看到更多,我们会将它们添加到上面,希望减少混乱。
[HUMBLE – 谦卑。] 为未来而建真是令人兴奋。Elasticsearch 又回到了开源状态。耶!这真是太好了。多么美好的一天。
永远:elasticheart: 开源
Shay
更多有关版权的介绍,请阅读 “Elastic:开发者上手指南” 中的 “版权介绍” 章节。
文章来源于互联网:Elasticsearch 再次开源
作者:来自 ElasticJennifer Klinger 关于生成式人工智能及其能做什么(和不能做什么)有很多讨论。生成式人工智能(例如大型语言模型 – LLMs)利用从大量训练数据中学习到的模式和结构来创建原创内容,而无需存储数据本身。这包括创建文本、软件…