Martin
by Martin Kysel

来自圣地亚哥的Kubecon 2019的十大常见问题解答

Nuodb做了什么?

TL; DR:NOODB是一个 分布式SQL数据库

NuodB是一个SQL数据库,它是完全的事务,完全酸,完全一致。这是与过去十年中出现的NoSQL解决方案的鲜明对比。

NuodB分发,这意味着它能够水平缩放并自动保持多个副本同步。拥有数据库的多个副本是对具有99.99%或更好的可用性保证的任何服务的严格要求。

你在云中跑吗?

Nuodb在私有云和在线上运行所有公共云(AWS,Azure,GCP等)。我们跑了 Kubernetes., Docker.,虚拟机,裸体金属,你命名它。 Nuodb允许您充分灵活地在避免使用任何云提供商的供应商锁定时安装产品的任何地方。我呼吁我们运行云无关的任何地方。这与下一个嗡嗡声词不同...多云。

你在多个云中运行吗?

云无名,我们在任何云中运行,但我们也在多云中运行。鉴于多云是一个加载的嗡嗡声,让我解释一下多云对我们意味着什么。我们为客户提供了在多个云中运行一个逻辑Nuodb数据库的能力,例如AW和Azure,同时。阅读关于这件事 Kubecon合作伙伴公告与牧场主.

在多个云中运行的能力将进一步推动零停机时间的边界。具有跨越两个或多个云的单个逻辑数据库允许您的服务继续运行,即使在严重的云提供商故障的情况下也可以继续运行。

您的一致性保证是什么?

使用计算机科学术语 ,Nuodb是CP数据库,这意味着我们优先考虑可用性的一致性。一旦Nuodb确认交易,它保证将存储在群集中 原则。 NOODB非常适合高价值数据。

您是否建立在另一个数据库之上?

Nuodb不在另一个(开源)数据库之上构建,如 mysql. 或者 PostgreSQL.。我们拥有自己的客户,SQL引擎,查询计划和查询优化器。因此,我们从其他SQL数据库中具有略微不同的SQL方言。我们符合ANSI SQL标准。 Nuodb自2010年以来一直存在,并且有机会构建自己的自定义SQL图层,该层被调整为现代分布式环境。

你使用共识/木筏吗?

最简洁的答案是不。较长的答案是:是的,但仅用于配置管理作为管理层的一部分。数据更改的共识不会很好地扩展,这就是为什么基于它的数据库将其与分片相结合。即使在分配碎片时,由于每个碎片的领导者序列化写入(和读数),并且与跨碎片交易的多个领导者同步,绩效遭受了困扰。

你是开源吗?

号Nuodb不是开源。我们确实提供了一个 社区版本 (CE)您今天可以下载的产品。要使事情更轻松,您可以下载我们的开源 掌控图表 或者 去运营商 并开始在Kubernetes中。您也可以找到我们的操作员 quay.io., AWS市场, 谷歌云平台红帽目录, 或者 OperatorHub.io.。 CE功能完全正常,但将缩放到三个事务引擎(TES)和一个存储管理器(SM)限制。

迁移到Nuodb有多容易?

任何数据库迁移都需要工作。 Nuodb不是另一个数据库的叉子,因此,我们实现了自己的SQL方言。虽然我们添加了兼容Oracle和SQL Server方言的SQL,但您可能使用可能需要修改某些特定于供应商的扩展。

更重要的是,将现有应用程序迁移到NuodB可能比迁移到其他分布式SQL数据库更容易,因为我们摘要分析的复杂性并使初始过渡到云和/或进入Kubernetes。这意味着什么?已为传统单节点SQL数据库写入的现有应用程序通常不容易分区或可支付。结果,迁移到需要分区或分配的分布式SQL数据库可能对于现有应用可能非常困难。 Nuodb确实支持分片,但您不会在第0天0.Nuodb 交易引擎 充当LRU缓存的形式,可在不需要大规模应用重写的情况下动态地适应应用程序访问模式。如果您有一个针对企业数据库的单片应用程序,您可以首先迁移到云端,然后开始将单片瞬间打破第二个。

你如何比较蟑螂/ yugabyte?

虽然我们是所有分布式SQL数据库,但我们实现分布的架构方法与其他人有很大差异,这导致不同的可寻址用例。

蟑螂和yugabyte都利用自动分区和共识算法来实现分布。相比之下,Nuodb的架构将标准数据库的计算和存储层分成两个不同的进程:事务引擎和存储管理器。事务引擎提供了一种LRU内存缓存的形式,其与存储管理器耦合,以获取数据持久性。每层可以独立缩放。

我们的架构方法允许我们的客户更轻松地将现有的企业关键应用程序从Oracle,SQL Server或DB2迁移。如上所述,我们不需要分区或可容易的工作量。此外,我们不使用共识算法进行数据管理。因此,我们可以解决需要非常低延迟和高交易吞吐量的应用程序。这是在的 腾料基准,我们能够为核心银行交易提供超过50k的TPS。

我如何开始诺博德布?

看看这个直截了当的教程,这将得到你 用诺福布社区版本运行。如果您有更多问题, 请联系我们.