[关闭]
@liyuj 2017-09-24T20:31:47.000000Z 字数 39305 阅读 6745

Apache-Ignite-2.2.0-中文开发手册

3.数据网格

3.1.数据网格

Ignite针对越来越火的水平扩展概念而构建,具有实时按需增加节点的能力。他可以支持线性扩展到几百个节点,通过数据位置的强语义以及数据关系路由来降低冗余数据噪声。
Ignite数据网格是一个基于内存的分布式键值存储,他可以视为一个分布式的分区化哈希,每个集群节点都持有所有数据的一部分,这意味着随着集群节点的增加,就可以缓存更多的数据。
与其他键值存储系统不同,Ignite通过可插拔的哈希算法来决定数据的位置,每个客户端都可以通过一个加入一个哈希函数决定一个键属于哪个节点,而不需要任何特定的映射服务器或者name节点。
Ignite数据网格支持本地、复制的、分区化的数据集,允许使用标准SQL语法方便地进行跨数据集查询,同时还支持在内存数据中进行分布式SQL关联。
Ignite数据网格轻量快速,是目前在集群中支持数据的事务性和原子性的最快的实现之一。

数据一致性
只要集群仍然处于活动状态,即使节点崩溃或者网络拓扑发生变化,Ignite都会保证不同集群节点中的数据的一致性。

JCache (JSR107)
Ignite实现了JCache(JSR107)规范。

3.2.超越JCache

3.2.1.摘要

Ignite是JCache(JSR107)规范的一个实现,JCache为数据访问提供了简单易用且功能强大的API。然而规范忽略了任何有关数据分布以及一致性的细节来允许开发商在自己的实现中有足够的自由度。
可以通过JCache实现:

在JCache之外,Ignite还提供了ACID事务,数据查询的能力(包括SQL),各种内存模型等。

3.2.2.IgniteCache

IgniteCache接口是Ignite缓存实现的一个入口,提供了保存和获取数据,执行查询,包括SQL,迭代和扫描等等的方法。
IgniteCache是基于JCache(JSR107)的,所以在非常基本的API上可以减少到javax.cache.Cache接口,然而IgniteCache还提供了JCache规范之外的、有用的功能,比如数据加载,查询,异步模型等。
可以从Ignite中直接获得IgniteCache的实例:

  1. Ignite ignite = Ignition.ignite();
  2. // Obtain instance of cache named "myCache".
  3. // Note that different caches may have different generics.
  4. IgniteCache<Integer, String> cache = ignite.cache("myCache");

动态缓存
也可以动态地创建缓存的一个实例,这时,Ignite会在所有的符合条件的集群成员中创建和部署该缓存。一个动态缓存启动后,它也会自动的部署到新加入的符合条件的节点上。

  1. Ignite ignite = Ignition.ignite();
  2. CacheConfiguration cfg = new CacheConfiguration();
  3. cfg.setName("myCache");
  4. cfg.setAtomicityMode(TRANSACTIONAL);
  5. // Create cache with given name, if it does not exist.
  6. IgniteCache<Integer, String> cache = ignite.getOrCreateCache(cfg);

XML配置
在任意的缓存节点上定义的基于Spring的XML配置的所有缓存同时会自动地在所有的集群节点上创建和部署(不需要在每个集群节点上指定同样的配置)。

3.2.3.基本操作

下面是一些JCache基本原子操作的例子:
Put和Get:

  1. try (Ignite ignite = Ignition.start("examples/config/example-cache.xml")) {
  2. IgniteCache<Integer, String> cache = ignite.cache(CACHE_NAME);
  3. // Store keys in cache (values will end up on different cache nodes).
  4. for (int i = 0; i < 10; i++)
  5. cache.put(i, Integer.toString(i));
  6. for (int i = 0; i < 10; i++)
  7. System.out.println("Got [key=" + i + ", val=" + cache.get(i) + ']');
  8. }

原子操作:

  1. // Put-if-absent which returns previous value.
  2. Integer oldVal = cache.getAndPutIfAbsent("Hello", 11);
  3. // Put-if-absent which returns boolean success flag.
  4. boolean success = cache.putIfAbsent("World", 22);
  5. // Replace-if-exists operation (opposite of getAndPutIfAbsent), returns previous value.
  6. oldVal = cache.getAndReplace("Hello", 11);
  7. // Replace-if-exists operation (opposite of putIfAbsent), returns boolean success flag.
  8. success = cache.replace("World", 22);
  9. // Replace-if-matches operation.
  10. success = cache.replace("World", 2, 22);
  11. // Remove-if-matches operation.
  12. success = cache.remove("Hello", 1);

死锁
如果批量(比如IgniteCache#putAll, IgniteCache#invokeAll等)操作以并行方式执行,那么键应该是有序的,以避免死锁,建议使用TreeMap而不是HashMap以保证一致性、有序性,注意这个对于原子化事务化缓存都是一样的。

3.2.4.EntryProcessor

当在缓存中执行putsupdates操作时,通常需要在网络中发送完整的状态数据,而EntryProcessor可以直接在主节点上处理数据,只需要传输增量数据而不是全量数据。
此外,可以在EntryProcessor中嵌入自定义逻辑,比如,获取之前缓存的数据然后加1.
Java8:

  1. IgniteCache<String, Integer> cache = ignite.cache("mycache");
  2. // Increment cache value 10 times.
  3. for (int i = 0; i < 10; i++)
  4. cache.invoke("mykey", (entry, args) -> {
  5. Integer val = entry.getValue();
  6. entry.setValue(val == null ? 1 : val + 1);
  7. return null;
  8. });

Java7:

  1. IgniteCache<String, Integer> cache = ignite.jcache("mycache");
  2. // Increment cache value 10 times.
  3. for (int i = 0; i < 10; i++)
  4. cache.invoke("mykey", new EntryProcessor<String, Integer, Void>() {
  5. @Override
  6. public Object process(MutableEntry<Integer, String> entry, Object... args) {
  7. Integer val = entry.getValue();
  8. entry.setValue(val == null ? 1 : val + 1);
  9. return null;
  10. }
  11. });

原子性
EntryProcessor通过给键加锁以原子性方式执行。

3.2.5.异步支持

和Ignite中的所有API一样,IgniteCache实现了IgniteAsynchronousSupport接口,因此可以以异步的方式使用。

  1. // Enable asynchronous mode.
  2. IgniteCache<String, Integer> asyncCache = ignite.cache("mycache").withAsync();
  3. // Asynhronously store value in cache.
  4. asyncCache.getAndPut("1", 1);
  5. // Get future for the above invocation.
  6. IgniteFuture<Integer> fut = asyncCache.future();
  7. // Asynchronously listen for the operation to complete.
  8. fut.listenAsync(f -> System.out.println("Previous cache value: " + f.get()));

3.3.缓存模式

3.3.1.摘要

Ignite提供了三种不同的缓存操作模式,分区、复制和本地。缓存模型可以为每个缓存单独配置,缓存模型是通过CacheMode枚举定义的。

3.3.2.分区模式

分区模式是扩展性最好的分布式缓存模式,这种模式下,所有数据被均等地分布在分区中,所有的分区也被均等地拆分在相关的节点中,实际上就是为缓存的数据创建了一个巨大的内存内分布式存储。这个方式可以在所有节点上只要匹配总可用内存就可以存储尽可能多的数据,因此,可以在集群的所有节点的内存中可以存储TB级的数据,也就是说,只要有足够多的节点,就可以存储足够多的数据。
复制模式不同,它更新是很昂贵的,因为集群内的每个节点都需要更新,而分区模式更新就很廉价,因为对于每个键只需要更新一个主节点(可选择一个或者多个备份节点),然而,读取变得较为昂贵,因为只有特定节点才持有缓存的数据。
为了避免额外的数据移动,总是访问恰好缓存有要访问的数据的节点是很重要的,这个方法叫做关系并置,当工作在分区化缓存时强烈建议使用。

分区化缓存适合于数据量很大而更新频繁的场合。

下图简单描述了一下一个分区缓存,实际上,键A赋予了运行在JVM1上的节点,B赋予了运行在JVM3上的节点,等等。

下面的配置章节显示了如何配置缓存模式的例子。

3.3.3.复制模式

复制模式中,所有数据都被复制到集群内的每个节点,因为每个节点都有效所以这个缓存模式提供了最大的数据可用性。然而,这个模式每个数据更新都要传播到其他所有节点,因而会对性能和可扩展性产生影响。
Ignite中,复制缓存是通过分区缓存实现的,每个键都有一个主拷贝而且在集群内的其他节点也会有备份。

因为相同的数据被存储在所有的集群节点中,复制缓存的大小受到RAM最小的节点的有效内存限制。这个模式适用于读缓存比写缓存频繁的多而且数据集较小的场景,如果应用超过80%的时间用于查找缓存,那么就要考虑使用复制缓存模式了。

复制缓存适用于数据集不大而且更新不频繁的场合。

3.3.4.本地模式

本地模式是最轻量的模式,因为没有数据被分布化到其他节点。他适用于或者数据是只读的,或者需要定期刷新的场景中。当缓存数据失效需要从持久化存储中加载数据时,他也可以工作与通读模式。除了分布化以外,本地缓存包括了分布式缓存的所有功能,比如自动数据回收,过期,磁盘交换,数据查询以及事务。

3.3.5.配置

缓存可以每个缓存分别配置,通过设置CacheConfigurationcacheMode属性实现:
XML:

  1. <bean class="org.apache.ignite.configuration.IgniteConfiguration">
  2. ...
  3. <property name="cacheConfiguration">
  4. <bean class="org.apache.ignite.configuration.CacheConfiguration">
  5. <!-- Set a cache name. -->
  6. <property name="name" value="cacheName"/>
  7. <!-- Set cache mode. -->
  8. <property name="cacheMode" value="PARTITIONED"/>
  9. ...
  10. </bean>
  11. </property>
  12. </bean>

Java:

  1. CacheConfiguration cacheCfg = new CacheConfiguration("myCache");
  2. cacheCfg.setCacheMode(CacheMode.PARTITIONED);
  3. IgniteConfiguration cfg = new IgniteConfiguration();
  4. cfg.setCacheConfiguration(cacheCfg);
  5. // Start Ignite node.
  6. Ignition.start(cfg);

3.3.6.原子有序写模式

当分区缓存使用CacheAtomicityMode.ATOMIC模式时,可以配置成原子有序写模式,原子有序写决定哪个节点会赋予写版本(发送者或者主节点),它由CacheAtomicWriteOrderMode枚举定义,它有两种模式:CLOCKPRIMARY
CLOCK有序写模式中,写版本被赋予在一个发送者节点上,当使用CacheWriteSynchronizationMode.FULL_SYNCCLOCK模式会被自动开启,因为它性能更好,因为到主节点和备份节点的写请求是被同时发送的。
PRIMARY有序写模式中,写版本只被赋予到主节点上,这种模式下发送者只会将写请求发送到主节点上然后分配写版本再转发到备份节点上。
原子有序写模式可以通过CacheConfigurationatomicWriteOrderMode属性进行配置。
XML:

  1. <bean class="org.apache.ignite.configuration.IgniteConfiguration">
  2. ...
  3. <property name="cacheConfiguration">
  4. <bean class="org.apache.ignite.configuration.CacheConfiguration">
  5. <!-- Set a cache name. -->
  6. <property name="name" value="cacheName"/>
  7. <!-- Atomic write order mode. -->
  8. <property name="atomicWriteOrderMode" value="PRIMARY"/>
  9. ...
  10. </bean>
  11. </property>
  12. </bean>

Java:

  1. CacheConfiguration cacheCfg = new CacheConfiguration();
  2. cacheCfg.setName("cacheName");
  3. cacheCfg.setAtomicWriteOrderMode(CacheAtomicWriteOrderMode.CLOCK);
  4. IgniteConfiguration cfg = new IgniteConfiguration();
  5. cfg.setCacheConfiguration(cacheCfg);
  6. // Start Ignite node.
  7. Ignition.start(cfg);

要了解有关原子模式的更多信息,请参照:3.9.事务章节。

XML:

  1. <bean class="org.apache.ignite.configuration.IgniteConfiguration">
  2. ...
  3. <property name="cacheConfiguration">
  4. <bean class="org.apache.ignite.configuration.CacheConfiguration">
  5. <!-- Set a cache name. -->
  6. <property name="name" value="cacheName"/>
  7. <!-- Set cache mode. -->
  8. <property name="cacheMode" value="PARTITIONED"/>
  9. <!-- Number of backup nodes. -->
  10. <property name="backups" value="1"/>
  11. ...
  12. </bean>
  13. </property>
  14. </bean>

Java:

  1. CacheConfiguration cacheCfg = new CacheConfiguration();
  2. cacheCfg.setName("cacheName");
  3. cacheCfg.setCacheMode(CacheMode.PARTITIONED);
  4. cacheCfg.setBackups(1);
  5. IgniteConfiguration cfg = new IgniteConfiguration();
  6. cfg.setCacheConfiguration(cacheCfg);
  7. // Start Ignite node.
  8. Ignition.start(cfg);

3.4.主节点和备份副本

3.4.1.摘要

分区模式下,赋予键的节点叫做这些键的主节点,对于缓存的数据,也可以有选择地配置任意多个备份节点。如果副本数量大于0,那么Ignite会自动地为每个独立的键赋予备份节点,比如,如果副本数量为1,那么数据网格内缓存的每个键都会有2个备份,一主一备。

因为性能原因备份默认是被关闭的。

3.4.2.配置备份

备份可以通过CacheConfigurationbackups属性进行配置,像下面这样:
XML:

  1. <bean class="org.apache.ignite.configuration.IgniteConfiguration">
  2. ...
  3. <property name="cacheConfiguration">
  4. <bean class="org.apache.ignite.configuration.CacheConfiguration">
  5. <!-- Set a cache name. -->
  6. <property name="name" value="cacheName"/>
  7. <!-- Set cache mode. -->
  8. <property name="cacheMode" value="PARTITIONED"/>
  9. <!-- Number of backup nodes. -->
  10. <property name="backups" value="1"/>
  11. ...
  12. </bean>
  13. </property>
  14. </bean>

Java:

  1. CacheConfiguration cacheCfg = new CacheConfiguration();
  2. cacheCfg.setName("cacheName");
  3. cacheCfg.setCacheMode(CacheMode.PARTITIONED);
  4. cacheCfg.setBackups(1);
  5. IgniteConfiguration cfg = new IgniteConfiguration();
  6. cfg.setCacheConfiguration(cacheCfg);
  7. // Start Ignite node.
  8. Ignition.start(cfg);

3.4.3.同步和异步备份

CacheWriteSynchronizationMode枚举可以用来配置主节点和备份部分的同步和异步更新。同步写模式告诉Ignite在完成写或者提交之前客户端节点是否要等待来自远程节点的响应。
同步写模式可以设置为下面的三种之一:

同步写模式 描述
FULL_SYNC 客户端节点要等待所有相关远程节点的写入或者提交完成(主和备)。
FULL_ASYNC 这种情况下,客户端不需要等待来自相关节点的响应。这时远程节点会在获得他们的状态在任意的缓存写操作完成或者Transaction.commit()方法调用完成之后进行小幅更新。
PRIMARY_SYNC 这是默认模式,客户端节点会等待主节点的写或者提交完成,但不会等待备份节点的更新完成。

缓存数据一致性
注意不管那种写同步模式,缓存数据都会保持在所有相关节点上的完整一致性。

写同步模式可以通过CacheConfigurationwriteSynchronizationMode属性进行配置,像下面这样:
XML:

  1. <bean class="org.apache.ignite.configuration.IgniteConfiguration">
  2. ...
  3. <property name="cacheConfiguration">
  4. <bean class="org.apache.ignite.configuration.CacheConfiguration">
  5. <!-- Set a cache name. -->
  6. <property name="name" value="cacheName"/>
  7. <!-- Set write synchronization mode. -->
  8. <property name="writeSynchronizationMode" value="FULL_SYNC"/>
  9. ...
  10. </bean>
  11. </property>
  12. </bean>

Java:

  1. CacheConfiguration cacheCfg = new CacheConfiguration();
  2. cacheCfg.setName("cacheName");
  3. cacheCfg.setWriteSynchronizationMode(CacheWriteSynchronizationMode.FULL_SYNC);
  4. IgniteConfiguration cfg = new IgniteConfiguration();
  5. cfg.setCacheConfiguration(cacheCfg);
  6. // Start Ignite node.
  7. Ignition.start(cfg);

3.5.近缓存

分区化的缓存也可以通过缓存前移,他是一个较小的本地缓存,可以用来存储最近或者最频繁访问的数据。和分区缓存一样,可以控制近缓存的大小以及回收策略。
近缓存可以通过在Ignite.createNearCache(NearConfiguration)中传入NearConfiguration或者通过调用Ignite.getOrCreateNearCache(NearConfiguration)方法在客户端节点直接创建。使用Ignite.getOrCreateCache(CacheConfiguration, NearCacheConfiguration),可以在动态启动一个分布式缓存的同时为其创建一个近缓存。
Java:

  1. // Create near-cache configuration for "myCache".
  2. NearCacheConfiguration<Integer, Integer> nearCfg =
  3. new NearCacheConfiguration<>();
  4. // Use LRU eviction policy to automatically evict entries
  5. // from near-cache, whenever it reaches 100_000 in size.
  6. nearCfg.setNearEvictionPolicy(new LruEvictionPolicy<>(100_000));
  7. // Create a distributed cache on server nodes and
  8. // a near cache on the local node, named "myCache".
  9. IgniteCache<Integer, Integer> cache = ignite.getOrCreateCache(
  10. new CacheConfiguration<Integer, Integer>("myCache"), nearCfg);

在大多数情况下,只要用了Ignite的关系并置,近缓存就不应该用了。如果计算与相应的分区化缓存节点是并置的,那么近缓存根本就不需要了,因为所有数据只在分区化缓存的本地才有效。
然而,有时没有必要将计算任务发送给远端节点,比如近缓存可以显著提升可扩展性或者提升应用的整体性能。

事务
近缓存是完全事务性的,当服务端的数据发生改变时会自动地获得更新或者失效。
服务端节点的近缓存
每当以一个非托管的方式从服务器端的分区缓存中访问数据时,都需要通过CacheConfiguration.setNearConfiguration(...)方法在服务端节点上配置近缓存。

3.5.1.配置

CacheConfiguration中与近缓存有关的大部分参数都会继承于服务端的配置,比如,如果服务端缓存有一个ExpiryPolicy,近缓存中的条目也会基于同样的策略。
下表中列出的参数是不会从服务端配置中继承的,是通过NearCacheConfiguration对象单独提供的:

setter方法 描述 默认值
setNearEvictionPolicy(CacheEvictionPolicy) 近缓存回收策略
setNearStartSize(int) 缓存初始大小 375,000

3.6.缓存查询

3.6.1.摘要

Ignite提供了非常优雅的查询API,支持基于谓词的扫描查询、SQL查询(ANSI-99兼容)、文本查询。对于SQL查询,Ignite提供了内存内的索引,因此所有的数据检索都是非常快的,如果是在堆外内存中缓存数据的,那么查询索引也会缓存在堆外内存中。
Ignite也通过IndexingSpiSpiQuery类提供对自定义索引的支持。

3.6.2.主要的抽象

IgniteCache有若干个查询方法,这些方法可以获得一些Query的子类以及返回QueryCursor

查询
Query抽象类表示一个在分布式缓存上执行的抽象分页查询。可以通过Query.setPageSize(...)方法设置返回游标的每页大小(默认值是1024)。

查询游标
QueryCursor表示查询的结果集,可以透明地进行一页一页地迭代。每当迭代到每页的最后时,会自动地在后台请求下一页的数据,当不需要分页时,可以使用QueryCursor.getAll()方法,他会获得整个查询结果集然后存储在集合里。

关闭游标
如果调用了QueryCursor.getAll()方法,游标会自动关闭。如果通过for循环迭代一个游标或者显式地获得Iterator,必须显式地关闭或者使用AutoCloseable语法。

3.6.3.扫描查询

扫描查询可以通过用户定义的谓词以分布式的形式进行缓存的查询。
Java8:

  1. IgniteCache<Long, Person> cache = ignite.cache("mycache");
  2. // Find only persons earning more than 1,000.
  3. try (QueryCursor cursor = cache.query(new ScanQuery((k, p) -> p.getSalary() > 1000)) {
  4. for (Person p : cursor)
  5. System.out.println(p.toString());
  6. }

Java7:

  1. IgniteCache<Long, Person> cache = ignite.cache("mycache");
  2. // Find only persons earning more than 1,000.
  3. IgniteBiPredicate<Long, Person> filter = new IgniteBiPredicate<>() {
  4. @Override public boolean apply(Long key, Perons p) {
  5. return p.getSalary() > 1000;
  6. }
  7. };
  8. try (QueryCursor cursor = cache.query(new ScanQuery(filter)) {
  9. for (Person p : cursor)
  10. System.out.println(p.toString());
  11. }

扫描查询还支持可选的转换器闭包,它可以在服务端节点在将数据发送到客户端之前对其进行转换。这个很有用,比如,当只是希望从一个大的对象获取少量字段时,这样可以最小化网络的数据传输量,下面的示例显示了如何只获取对象的键,而不发送对象的值。
Java8:

  1. IgniteCache<Long, Person> cache = ignite.cache("mycache");
  2. // Get only keys for persons earning more than 1,000.
  3. List<Long> keys = cache.query(new ScanQuery<Long, Person>(
  4. (k, p) -> p.getSalary() > 1000), // Remote filter.
  5. Cache.Entry::getKey // Transformer.
  6. ).getAll();

Java7:

  1. IgniteCache<Long, Person> cache = ignite.cache("mycache");
  2. // Get only keys for persons earning more than 1,000.
  3. List<Long> keys = cache.query(new ScanQuery<>(
  4. // Remote filter.
  5. new IgniteBiPredicate<Long, Person>() {
  6. @Override public boolean apply(Long k, Person p) {
  7. return p.getSalary() > 1000;
  8. }
  9. }),
  10. // Transformer.
  11. new IgniteClosure<Cache.Entry<Long, Person>, Long>() {
  12. @Override public Long apply(Cache.Entry<Long, Person> e) {
  13. return e.getKey();
  14. }
  15. }
  16. ).getAll();

3.6.4.SQL查询

Ignite的SQL查询请参照SQL网格的相关章节。

3.6.5.文本查询

Ignite也支持通过Lucene索引实现的基于文本的查询。
文本查询:

  1. IgniteCache<Long, Person> cache = ignite.cache("mycache");
  2. // Query for all people with "Master Degree" in their resumes.
  3. TextQuery txt = new TextQuery(Person.class, "Master Degree");
  4. try (QueryCursor<Entry<Long, Person>> masters = cache.query(txt)) {
  5. for (Entry<Long, Person> e : cursor)
  6. System.out.println(e.getValue().toString());
  7. }

3.6.6.通过注解进行查询的配置

索引可以在代码中通过@QuerySqlField注解进行配置,来告诉Ignite那个类型要被索引,键值对可以传入CacheConfiguration.setIndexedTypes(MyKey.class, MyValue.class)方法。注意这个方法只会接受成对的类型,一个是键类型,一个是值类型。

Java:

  1. public class Person implements Serializable {
  2. /** Person ID (indexed). */
  3. @QuerySqlField(index = true)
  4. private long id;
  5. /** Organization ID (indexed). */
  6. @QuerySqlField(index = true)
  7. private long orgId;
  8. /** First name (not-indexed). */
  9. @QuerySqlField
  10. private String firstName;
  11. /** Last name (not indexed). */
  12. @QuerySqlField
  13. private String lastName;
  14. /** Resume text (create LUCENE-based TEXT index for this field). */
  15. @QueryTextField
  16. private String resume;
  17. /** Salary (indexed). */
  18. @QuerySqlField(index = true)
  19. private double salary;
  20. ...
  21. }

3.6.7.使用QueryEntity进行查询配置

索引和字段也可以通过org.apache.ignite.cache.QueryEntity进行配置,他便于通过Spring使用XML进行配置,详细信息可以参照JavaDoc。他与@QuerySqlField注解是等价的,因为在内部类注解会被转换成查询实体。
XML:

  1. <bean class="org.apache.ignite.configuration.CacheConfiguration">
  2. <property name="name" value="mycache"/>
  3. <!-- Configure query entities -->
  4. <property name="queryEntities">
  5. <list>
  6. <bean class="org.apache.ignite.cache.QueryEntity">
  7. <property name="keyType" value="java.lang.Long"/>
  8. <property name="valueType" value="org.apache.ignite.examples.Person"/>
  9. <property name="fields">
  10. <map>
  11. <entry key="id" value="java.lang.Long"/>
  12. <entry key="orgId" value="java.lang.Long"/>
  13. <entry key="firstName" value="java.lang.String"/>
  14. <entry key="lastName" value="java.lang.String"/>
  15. <entry key="resume" value="java.lang.String"/>
  16. <entry key="salary" value="java.lang.Double"/>
  17. </map>
  18. </property>
  19. <property name="indexes">
  20. <list>
  21. <bean class="org.apache.ignite.cache.QueryIndex">
  22. <constructor-arg value="id"/>
  23. </bean>
  24. <bean class="org.apache.ignite.cache.QueryIndex">
  25. <constructor-arg value="orgId"/>
  26. </bean>
  27. <bean class="org.apache.ignite.cache.QueryIndex">
  28. <constructor-arg value="salary"/>
  29. </bean>
  30. </list>
  31. </property>
  32. </bean>
  33. </list>
  34. </property>
  35. </bean>

Java:

  1. CacheConfiguration<Long, Person> cacheCfg = new CacheConfiguration<>();
  2. ...
  3. cacheCfg.setName("mycache");
  4. // Setting up query entity.
  5. QueryEntity queryEntity = new QueryEntity();
  6. queryEntity.setKeyType(Long.class.getName());
  7. queryEntity.setValueType(Person.class.getName());
  8. // Listing query fields.
  9. LinkedHashMap<String, String> fields = new LinkedHashMap();
  10. fields.put("id", Long.class.getName());
  11. fields.put("orgId", Long.class.getName());
  12. fields.put("firstName", String.class.getName());
  13. fields.put("lastName", String.class.getName());
  14. fields.put("resume", String.class.getName());
  15. fields.put("salary", Double.class.getName());
  16. queryEntity.setFields(fields);
  17. // Listing indexes.
  18. Collection<QueryIndex> indexes = new ArrayList<>(3);
  19. indexes.add(new QueryIndex("id"));
  20. indexes.add(new QueryIndex("orgId"));
  21. indexes.add(new QueryIndex("salary"));
  22. queryEntity.setIndexes(indexes);
  23. ...
  24. cacheCfg.setQueryEntities(Arrays.asList(queryEntity));
  25. ...

3.7.持续查询

3.7.1.持续查询

持续查询可以监听缓存中数据的变更。持续查询一旦启动,如果有,就会收到符合查询条件的数据变化的通知。
持续查询的功能是通过ContinuousQuery类启用的,详细描述如下:
初始化查询
当要执行持续查询时,在将持续查询注册在集群中以及开始接收更新之前,可以有选择地指定一个初始化查询。
初始化查询可以通过ContinuousQuery.setInitialQuery(Query)方法进行设置,并且可以是任意查询类型,包括扫描查询,SQL查询和文本查询。
远程过滤器
这个过滤器在给定键对应的主和备节点上执行,然后评估更新是否需要作为一个事件传播给该查询的本地监听器。
如果过滤器返回true,那么本地监听器就会收到通知,否则事件会被忽略。产生更新的特定主和备节点,会在主/备节点以及应用端执行的本地监听器之间,减少不必要的网络流量。
远程过滤器可以通过ContinuousQuery.setRemoteFilter(CacheEntryEventFilter<K, V>)方法进行设置。
本地监听器
当缓存被修改时(一个条目被插入、更新或者删除),更新对应的事件就会发送给持续查询的本地监听器,之后应用就可以做出对应的反应。
当事件通过了远程过滤器,他们就会被发送给客户端,通知哪里的本地监听器。
本地监听器是通过ContinuousQuery.setLocalListener(CacheEntryUpdatedListener<K, V>)方法设置的。
Java8:

  1. IgniteCache<Integer, String> cache = ignite.cache("mycache");
  2. // Creating a continuous query.
  3. ContinuousQuery<Integer, String> qry = new ContinuousQuery<>();
  4. // Setting an optional initial query.
  5. // The query will return entries for the keys greater than 10.
  6. qry.setInitialQuery(new ScanQuery<Integer, String>((k, v) -> k > 10)):
  7. // Local listener that is called locally when an update notification is received.
  8. qry.setLocalListener((evts) ->
  9. evts.stream().forEach(e -> System.out.println("key=" + e.getKey() + ", val=" + e.getValue())));
  10. // This filter will be evaluated remotely on all nodes.
  11. // Entry that pass this filter will be sent to the local listener.
  12. qry.setRemoteFilter(e -> e.getKey() > 10);
  13. // Executing the query.
  14. try (QueryCursor<Cache.Entry<Integer, String>> cur = cache.query(qry)) {
  15. // Iterating over existing data stored in cache.
  16. for (Cache.Entry<Integer, String> e : cur)
  17. System.out.println("key=" + e.getKey() + ", val=" + e.getValue());
  18. // Adding a few more cache entries.
  19. // As a result, the local listener above will be called.
  20. for (int i = 5; i < 15; i++)
  21. cache.put(i, Integer.toString(i));
  22. }

Java7:

  1. IgniteCache<Integer, String> cache = ignite.cache(CACHE_NAME);
  2. // // Creating a continuous query.
  3. ContinuousQuery<Integer, String> qry = new ContinuousQuery<>();
  4. // Setting an optional initial query.
  5. // The query will return entries for the keys greater than 10.
  6. qry.setInitialQuery(new ScanQuery<Integer, String>(
  7. new IgniteBiPredicate<Integer, String>() {
  8. @Override public boolean apply(Integer key, String val) {
  9. return key > 10;
  10. }
  11. }));
  12. // Local listener that is called locally when an update notification is received.
  13. qry.setLocalListener(new CacheEntryUpdatedListener<Integer, String>() {
  14. @Override public void onUpdated(Iterable<CacheEntryEvent<? extends Integer, ? extends String>> evts) {
  15. for (CacheEntryEvent<Integer, String> e : evts)
  16. System.out.println("key=" + e.getKey() + ", val=" + e.getValue());
  17. }
  18. });
  19. // This filter will be evaluated remotely on all nodes.
  20. // Entry that pass this filter will be sent to the local listener.
  21. qry.setRemoteFilter(new CacheEntryEventFilter<Integer, String>() {
  22. @Override public boolean evaluate(CacheEntryEvent<? extends Integer, ? extends String> e) {
  23. return e.getKey() > 10;
  24. }
  25. });
  26. // Execute query.
  27. try (QueryCursor<Cache.Entry<Integer, String>> cur = cache.query(qry)) {
  28. // Iterating over existing data stored in cache.
  29. for (Cache.Entry<Integer, String> e : cur)
  30. System.out.println("key=" + e.getKey() + ", val=" + e.getValue());
  31. // Adding a few more cache entries.
  32. // As a result, the local listener above will be called.
  33. for (int i = keyCnt; i < keyCnt + 10; i++)
  34. cache.put(i, Integer.toString(i));
  35. }

3.7.2.事件传递保证

持续查询的实现会明确地保证,一个事件只会传递给客户端的本地监听器一次。
因为除了主节点,在每个备份节点维护一个更新队列是可行的。如果主节点故障或者由于某些其他原因网络发生了改变,之后每个备份节点会刷新他的内部队列的内容给客户端来确保事件都会被传递给客户端的本地监听器。
为了避免重复通知,当所有的备份节点都刷新他们的队列给客户端时,Ignite会为每个分区维护一个更新计数器。当某个分区的一个条目已经更新,这个分区的计数器在主节点和备份节点都会增加。这个计数器的值会和事件通知一起发给客户端,该客户端还维护该映射的副本。如果客户端收到了一个更新,对应的计数小于它的本地映射,这个更新会被视为重复的然后被忽略。
一旦客户端确认一个事件已经收到,主节点和备份节点会从它们的备份队列中删除该事件的记录。

3.7.3.示例

关于描述持续查询如何使用的完整示例,已经随着Ignite的发行版一起发布,名为CacheContinuousQueryExample,相关的代码在GitHub上也有。

3.8.事务

3.8.1.原子化模式

Ignite支持两种类型的缓存操作,事务性原子性,在事务性模式中可以在一个事务中组合多个缓存操作,而原子性模式支持多个原子性操作,一次一个。
这些原子化模式是在CacheAtomicityMode枚举中定义的:

TRANSACTIONAL模式开启了完全遵守ACID的事务,但是,如果只需要原子语义,因为性能原因还是建议使用ATOMIC模式。
ATOMIC模式因为避免了事务锁,所以性能更好,但是仍然提供了数据的原子性和一致性。ATOMIC模式的另一个不同是批量写,比如putAll(...)removeAll(...)方法不再可以在一个事务中执行并且可能部分失败,在部分失败时,会抛出CachePartialUpdateException,它里面包含了更新失败的键列表。
原子化模式是在CacheAtomicityMode枚举中定义的,可以在CacheConfiguration的atomicityMode属性进行配置。
XML:

  1. <bean class="org.apache.ignite.configuration.IgniteConfiguration">
  2. ...
  3. <property name="cacheConfiguration">
  4. <bean class="org.apache.ignite.configuration.CacheConfiguration">
  5. <!-- Set a cache name. -->
  6. <property name="name" value="myCache"/>
  7. <!-- Set atomicity mode, can be ATOMIC or TRANSACTIONAL.
  8. ATOMIC is default. -->
  9. <property name="atomicityMode" value="TRANSACTIONAL"/>
  10. ...
  11. </bean>
  12. </property>
  13. <!-- Optional transaction configuration. -->
  14. <property name="transactionConfiguration">
  15. <bean class="org.apache.ignite.configuration.TransactionConfiguration">
  16. <!-- Configure TM lookup here. -->
  17. </bean>
  18. </property>
  19. </bean>

Java:

  1. CacheConfiguration cacheCfg = new CacheConfiguration();
  2. cacheCfg.setName("cacheName");
  3. cacheCfg.setAtomicityMode(CacheAtomicityMode.ATOMIC);
  4. IgniteConfiguration cfg = new IgniteConfiguration();
  5. cfg.setCacheConfiguration(cacheCfg);
  6. // Optional transaction configuration. Configure TM lookup here.
  7. TransactionConfiguration txCfg = new TransactionConfiguration();
  8. cfg.setTransactionConfiguration(txCfg);
  9. // Start Ignite node.
  10. Ignition.start(cfg);

性能
注意当使用ATOMIC模式时,事务是被禁用的,因为不需要事务,因此可以获得更高的性能和吞吐量。

3.8.2.IgniteTransactions

IgniteTransactions接口包括了启动和结束事务的功能,以及订阅监听器或者获得指标数据。

跨缓存事务
可以在一个事务中组合来自不同缓存的多个操作。注意它可以在一个事务中更新不同类型的缓存,比如复制分区缓存。
近缓存事务
近缓存是完全事务化的,当数据在服务端改变时,会自动地获得更新或者失效。

可以像下面这样获得IgniteTransactions的一个实例:
Java:

  1. Ignite ignite = Ignition.ignite();
  2. IgniteTransactions transactions = ignite.transactions();

下面是一个事务如何在Ignite中执行的例子:

  1. try (Transaction tx = transactions.txStart()) {
  2. Integer hello = cache.get("Hello");
  3. if (hello == 1)
  4. cache.put("Hello", 11);
  5. cache.put("World", 22);
  6. tx.commit();
  7. }

事务化方法
通过IgniteCacheAPI暴露的方法,当对应的缓存开启事务时,都是完全事务化的。但是,还有一个方法能明确地知道一个方法是否满足ACID原则--看它的方法签名,如果其抛出TransactionException异常,那么它就能安全地用于分布式事务。这些方法中,可以看到cache.put(...), cache.get(...),cache.invoke(...)等等。

3.8.3.2阶段提交(2PC)

Ignite在事务中使用了2阶段提交的协议,但是只要适用也带有很多一阶段提交的优化。在一个事务中当数据更新时,Ignite会在本地事务映射中保持事务状态直到调用了commit()方法,在这一点,只要需要,数据都会被传输到远程节点。
对于Ignite2阶段提交是怎么工作的更多信息,可以参照如下博客:

另外,关注下面的Web研讨会也可以了解Ignite事务子系统的更多信息:

ACID完整性
Ignite提供了完整的ACID(原子性,一致性,隔离性和持久性)兼容事务来确保一致性。

3.8.4.并发模型和隔离级别

当原子化模式配置为事务时,Ignite对事务支持乐观悲观并发模型。并发模型决定了何时获得一个条目级的事务锁-在访问数据时或者在prepare阶段。锁定可以防止对一个对象的并发访问。比如,当试图用悲观锁更新一个ToDo列表项时,服务端会在该对象上置一个锁以使其他的事务或者操作无法更新同一个条目,直到提交或者回滚该事务。不管在一个事务中使用那种并发模型,在提交之前都存在事务中的所有条目被锁定的时刻。
隔离级别定义了并发事务如何"看"以及处理针对同一个键的操作。Ignite支持读提交可重复读可序列化隔离级别。
并发模型和隔离级别的所有组合都是可以同时使用的。下面是针对Ignite提供的每一个并发-隔离组合的行为和保证的描述。

3.8.5.悲观事务

悲观事务中,锁是在第一次读或者写访问期间获得(取决于隔离级别)然后被事务持有直到其被提交或者回滚。该模式中,锁首先在主节点获得然后在准备阶段提升至备份节点。下面的隔离级别可以配置为悲观并发模型。

注意,在悲观模式中,锁的顺序是很重要的。此外,Ignite可以按照用户提供的顺序依次并且准确地获得锁。

性能考量
设想网络中有三个节点(A、B、C),并且在事务中针对键[1, 2, 3, 4, 5, 6]执行一个putAll。假定这些键以如下形式映射到节点:{A: 1, 4}, {B: 2, 5}, {C: 3, 6},因为Ignite在悲观模式中无法改变获得锁的顺序,他会产生6次连续地网络往返:[A, B, C, A, B, C]。在键的锁定顺序对于一个事务的语义不重要的情况下,将键按照分区进行分组然后将在一个分区的键一起锁定是明智的。这在一个大的事务中可以显著地降低网络消息的数量。在这个示例中,如果对于一个putAll键按照如下的方式排序:[1, 4, 2, 5, 3, 6],之后只需要3次的连续网络访问。
拓扑变化约束
注意,如果至少获得一个悲观事务锁,都不可能改变缓存的拓扑,直到事务被提交或者回滚,因此,不建议长时间地持有事务锁。

3.8.6.乐观事务

在乐观事务中,条目锁是在准备阶段从主节点获得的,然后提升至备份节点,该锁在事务提交时被释放。如果用户回滚事务没有试图做提交,是不会获得锁的。下面的隔离级别可以与乐观并发模型配置在一起。

  1. IgniteTransactions txs = ignite.transactions();
  2. // Start transaction in optimistic mode with serializable isolation level.
  3. while (true) {
  4. try (Transaction tx =
  5. ignite.transactions().txStart(TransactionConcurrency.OPTIMISTIC,
  6. TransactionIsolation.SERIALIZABLE)) {
  7. // Modify cache entires as part of this transacation.
  8. ....
  9. // commit transaction.
  10. tx.commit();
  11. // Transaction succeeded. Leave the while loop.
  12. break;
  13. }
  14. catch (TransactionOptimisticException e) {
  15. // Transaction has failed. Retry.
  16. }
  17. }

这里另外一个需要注意的重要的点是,即使一个条目只是简单地读取(没有改变,cache.put(...)),一个事务仍然可能失败,因为该条目的值对于发起事务中的逻辑很重要。
注意,对于读提交可重复读事务,键的顺序是很重要的,因为这些模式中锁也是按顺序获得的。

3.8.7.死锁检测

当处理分布式事务时必须要遵守的主要规则是参与一个事务的键的锁,必须按照同样的顺序获得,违反这个规则就可能导致分布式死锁。
Ignite无法避免分布式死锁,而是有一个内建的功能来使调试和解决这个问题更容易。
就像下面的代码片段所示,一个带有超时时间的事务启动。如果过了超时时间,死锁检测过程就会试图查找一个触发这个超时的可能的死锁。当超过超时时间时,会抛出TransactionTimeoutException并且像触发CacheException那样传播到应用层而不会管死锁。然而,如果检测到了一个死锁,返回的TransactionTimeoutException的cause会是TransactionDeadlockException(至少涉及死锁的一个事务)。

  1. try (Transaction tx = ignite.transactions().txStart(TransactionConcurrency.PESSIMISTIC,
  2. TransactionIsolation.READ_COMMITTED, 300, 0)) {
  3. cache.put(1, 1);
  4. cache.put(2, 1);
  5. tx.commit();
  6. }
  7. catch (CacheException e) {
  8. if (e.getCause() instanceof TransactionTimeoutException &&
  9. e.getCause().getCause() instanceof TransactionDeadlockException)
  10. System.out.println(e.getCause().getCause().getMessage());
  11. }

TransactionDeadlockException里面包含了有用的信息,有助于找到导致死锁的原因。

  1. Deadlock detected:
  2. K1: TX1 holds lock, TX2 waits lock.
  3. K2: TX2 holds lock, TX1 waits lock.
  4. Transactions:
  5. TX1 [txId=GridCacheVersion [topVer=74949328, time=1463469328421, order=1463469326211, nodeOrder=1], nodeId=ad68354d-07b8-4be5-85bb-f5f2362fbb88, threadId=73]
  6. TX2 [txId=GridCacheVersion [topVer=74949328, time=1463469328421, order=1463469326210, nodeOrder=1], nodeId=ad68354d-07b8-4be5-85bb-f5f2362fbb88, threadId=74]
  7. Keys:
  8. K1 [key=1, cache=default]
  9. K2 [key=2, cache=default]

死锁检测是一个多步过程,依赖于集群中节点的数量、键以及可能导致死锁涉及的事务数,可能需要做很多次迭代。一个死锁检测的发起者是发起事务并且出现TransactionTimeoutException错误的那个节点,这个节点会检查是否发生了死锁,通过与其他远程节点交换请求/响应,并且准备一个与死锁有关的、由TransactionDeadlockException提供的报告,每个这样的消息(请求/响应)都会被称为一个迭代器。
因为死锁检测过程不结束,事务就不会回滚,有时,如果希望对于事务回滚有一个可预测的时间,调整一下参数还是有意义的(下面会描述)。

注意如果迭代器太少的话,可能获得一个不完整的死锁检测报告。

如果想彻底避免死锁,可以看下面的无死锁事务章节。

3.8.8.无死锁事务

对于乐观可序列化事务,锁不是按顺序获得的。该模式中键可以按照任何顺序访问,因为事务锁是通过一个额外的检查以并行的方式获得的,这使得Ignite可以避免死锁。
这里需要引入几个概念来描述可序列化的事务锁是如何工作的。Ignite中的每个事务都会被赋予一个叫做XidVersion的可比较的版本号,事务提交时该事务中修改的每个条目都会被赋予一个叫做EntryVersion的新的版本号,一个版本号为XidVersionA乐观可序列化事务在如下情况下会抛出TransactionOptimisticException异常而失败:

在一个高并发环境中,乐观锁可能导致一个很高的事务失败率。但是悲观锁如果锁被事务以一个不同的顺序获得可能导致死锁。
然而,在一个同质化的环境中,乐观可序列化锁对于大的事务可能提供更好的性能,因为网络交互的数量只取决于事务相关的节点的数量,而不取决于事务中的键的数量。

3.8.9.集成JTA

Ignite可以通过TransactionConfiguration#setTxManagerFactory方法配置一个JTA事务管理器搜索类,事务管理器工厂是一个工厂,他给Ignite提供了一个JTA事务管理器的实例。
Ignite提供了一个CacheJndiTmFactory工厂,他是一个通过JNDI名字查找事务管理器的开箱即用的事务管理器工厂实现。
设置了之后,在事务中的每一次缓存操作,Ignite都会检查是否存在一个进行中的JTA事务。如果JTA事务开启了,Ignite也会开启一个事务然后通过他自己的一个XAResource的内部实现来将其加入JTA事务,Ignite事务会准备,提交或者干脆回滚相应的JTA事务。
下面是一个在Ignite中使用JTA事务管理器的示例:
Java:

  1. // Get an instance of JTA transaction manager.
  2. TMService tms = appCtx.getComponent(TMService.class);
  3. // Get an instance of Ignite cache.
  4. IgniteCache<String, Integer> cache = cache();
  5. UserTransaction jtaTx = tms.getUserTransaction();
  6. // Start JTA transaction.
  7. jtaTx.begin();
  8. try {
  9. // Do some cache operations.
  10. cache.put("key1", 1);
  11. cache.put("key2", 2);
  12. // Commit the transaction.
  13. jtaTx.commit();
  14. }
  15. finally {
  16. // Rollback in a case of exception.
  17. if (jtaTx.getStatus() == Status.STATUS_ACTIVE)
  18. jtaTx.rollback();
  19. }

3.9.锁

缓存事务会隐式地获得锁,然而,有些情况下显式锁是很有用的。IgniteCacheAPI的lock()方法会返回一个java.util.concurrent.locks.Lock的实例,他可以在任意给定的键上定义显式的分布式锁,也可以通过IgniteCache.lockAll()方法给集合对象加锁。

  1. IgniteCache<String, Integer> cache = ignite.cache("myCache");
  2. // Create a lock for the given key.
  3. Lock lock = cache.lock("keyLock");
  4. try {
  5. // Aquire the lock.
  6. lock.lock();
  7. cache.put("Hello", 11);
  8. cache.put("World", 22);
  9. }
  10. finally {
  11. // Release the lock.
  12. lock.unlock();
  13. }

原子化模式
Ignite中,只有在TRANSACTIONAL原子化模式中才支持锁,他可以通过CacheConfigurationatomicityMode属性进行配置。

锁和事务
显式锁是非事务性的,不能在事务中使用(会抛出异常)。如果确实需要在事务中使用显式锁,那么需要使用事务的TransactionConcurrency.PESSIMISTIC并发控制,他会为相关的缓存操作获得显式锁。

3.10.关系并置

数据和计算以及数据和数据的并置可以显著地提升应用的性能和可扩展性。

3.10.1.数据与数据的并置

在许多情况下,如果不同的缓存键被同时访问的话那么将他们并置在一起是很有利的。通常来说业务逻辑需要访问不止一个的缓存键,通过将他们并置在一起可以确保具有同一个affinityKey的所有键都会缓存在同一个处理节点上,从而避免从远程节点获取数据的昂贵网络开销。
例如,有一个PersonCompany对象,然后希望将Person对象和其工作的Company对象并置在一起。要做到这一点,用于缓存Person对象的缓存键应该有一个属性或者方法加注了@AffinityKeyMapped注解,他会提供用于并置的Company键的值,方便起见,也可以可选地使用AffinityKey类。

Scala中的注解
注意,如果Scala的case class用于键类并且它的构造函数参数之一加注了@AffinityKeyMapped注解,默认这个注解并不会正确地用于生成的字段,因此也就不会被Ignite识别。要覆盖这个行为,可以使用@field元注解而不是@AffinityKeyMapped(看下面的示例)。

使用PersonKey:

  1. public class PersonKey {
  2. // Person ID used to identify a person.
  3. private String personId;
  4. // Company ID which will be used for affinity.
  5. @AffinityKeyMapped
  6. private String companyId;
  7. ...
  8. }
  9. // Instantiate person keys with the same company ID which is used as affinity key.
  10. Object personKey1 = new PersonKey("myPersonId1", "myCompanyId");
  11. Object personKey2 = new PersonKey("myPersonId2", "myCompanyId");
  12. Person p1 = new Person(personKey1, ...);
  13. Person p2 = new Person(personKey2, ...);
  14. // Both, the company and the person objects will be cached on the same node.
  15. comCache.put("myCompanyId", new Company(...));
  16. perCache.put(personKey1, p1);
  17. perCache.put(personKey2, p2);

使用PersonKey(Scala)

  1. case class PersonKey (
  2. // Person ID used to identify a person.
  3. personId: String,
  4. // Company ID which will be used for affinity.
  5. @(AffinityKeyMapped @field)
  6. companyId: String
  7. )
  8. // Instantiate person keys with the same company ID which is used as affinity key.
  9. val personKey1 = PersonKey("myPersonId1", "myCompanyId");
  10. val personKey2 = PersonKey("myPersonId2", "myCompanyId");
  11. val p1 = new Person(personKey1, ...);
  12. val p2 = new Person(personKey2, ...);
  13. // Both, the company and the person objects will be cached on the same node.
  14. compCache.put("myCompanyId", Company(...));
  15. perCache.put(personKey1, p1);
  16. perCache.put(personKey2, p2);

使用AffinityKey:

  1. Object personKey1 = new AffinityKey("myPersonId1", "myCompanyId");
  2. Object personKey2 = new AffinityKey("myPersonId2", "myCompanyId");
  3. Person p1 = new Person(personKey1, ...);
  4. Person p2 = new Person(personKey2, ...);
  5. // Both, the company and the person objects will be cached on the same node.
  6. comCache.put("myCompanyId", new Company(..));
  7. perCache.put(personKey1, p1);
  8. perCache.put(personKey2, p2);

SQL关联
当在分区缓存上的数据执行SQL分布式关联时,一定要确保关联的键是并置的。

3.10.2.数据和计算的并置

也有可能向缓存数据的节点发送计算,这是一个被称为数据和计算的并置的概念,他可以向特定的节点发送整个的工作单元。
要将数据和计算并置在一起,需要使用IgniteCompute.affinityRun(...)IgniteCompute.affinityCall(...)方法。
下面的例子显示了如何和上面提到的缓存PersonCompany对象的同一个集群节点进行并置计算:

Java8:

  1. String companyId = "myCompanyId";
  2. // Execute Runnable on the node where the key is cached.
  3. ignite.compute().affinityRun("myCache", companyId, () -> {
  4. Company company = cache.get(companyId);
  5. // Since we collocated persons with the company in the above example,
  6. // access to the persons objects is local.
  7. Person person1 = cache.get(personKey1);
  8. Person person2 = cache.get(personKey2);
  9. ...
  10. });

Java7:

  1. final String companyId = "myCompanyId";
  2. // Execute Runnable on the node where the key is cached.
  3. ignite.compute().affinityRun("myCache", companyId, new IgniteRunnable() {
  4. @Override public void run() {
  5. Company company = cache.get(companyId);
  6. Person person1 = cache.get(personKey1);
  7. Person person2 = cache.get(personKey2);
  8. ...
  9. }
  10. };

3.10.3.IgniteCompute和EntryProcessor

IgniteCompute.affinityRun(...)IgniteCache.invoke(...)方法都提供了数据和计算的并置。主要的不同在于invoke(...)方法是原子的并且执行时在键上加了锁,无法从EntryProcessor逻辑内部访问其他的键,因为它会触发一个死锁。
另一方面,affinityRun(...)affinityCall(...)不持有任何锁。比如,在这些方法内开启多个事务或者执行缓存查询是绝对合法的,不用担心死锁。这时Ignite会自动检测处理是并置的然后对事务采用优化过的一阶段提交而不是二阶段提交。

关于IgniteCache.invoke(...)方法的更多信息,请参照3.2.超越JCache文档。

3.10.4.关系函数

分区的关系控制一个分区缓存在哪个网格节点或者哪些节点上。AffinityFunction是一个可插拔的API用于确定网格中分区到节点的一个理想映射。当集群网络发生变化时,分区到节点的映射可能不同于关系函数提供的理想分布,直到再平衡结束。
Ignite提供了RendezvousAffinityFunction,这个函数允许分区到节点的映射有点区别(即一些节点可能比其他节点负责稍微多一点的分区数量)。然而,它保证当网络发生变化时,分区只会迁移到一个新加入的节点或者只来自一个离开的节点,集群内已有的节点间不会发生数据的交换。
注意,缓存关系函数不会直接映射键和节点,它映射的是键和分区。分区只是来自一个有限集合的简单的数字(默认0-1024)。在键映射到他们的分区之后(即获得了他们的分区号),已有的分区到节点的映射会用于当前的网络版本,键到分区的映射在时间上并不会改变。
下面的代码显示了如何自定义和配置一个关系函数:

  1. <bean class="org.apache.ignite.configuration.IgniteConfiguration">
  2. <property name="cacheConfiguration">
  3. <list>
  4. <!-- Creating a cache configuration. -->
  5. <bean class="org.apache.ignite.configuration.CacheConfiguration">
  6. <property name="name" value="myCache"/>
  7. <!-- Creating the affinity function with custom setting. -->
  8. <property name="affinity">
  9. <bean class="org.apache.ignite.cache.affinity.rendezvous.RendezvousAffinityFunction">
  10. <property name="excludeNeighbors" value="true"/>
  11. <property name="partitions" value="2048"/>
  12. </bean>
  13. </property>
  14. </bean>
  15. </list>
  16. </property>
  17. </bean>

Java:

  1. // Preparing Apache Ignite node configuration.
  2. IgniteConfiguration cfg = new IgniteConfiguration();
  3. // Creating a cache configuration.
  4. CacheConfiguration cacheCfg = new CacheConfiguration("myCache");
  5. // Creating the affinity function with custom setting.
  6. RendezvousAffinityFunction affFunc = new RendezvousAffinityFunction();
  7. affFunc.setExcludeNeighbors(true);
  8. affFunc.setPartitions(2048);
  9. // Applying the affinity function configuration.
  10. cacheCfg.setAffinity(affFunc);
  11. // Setting the cache configuration.
  12. cfg.setCacheConfiguration(cacheCfg);

关系的故障安全
主备副本不位于同一台物理机上,以这样的方式调整集群内的分区是很有用的,要确保这个属性,可以在RendezvousAffinityFunction上设置excludeNeighbors标志。
有时将一个分区的主备副本放在不同的机架上也是很有用的。这时,可以为每个节点赋予一个特别的属性然后在RendezvousAffinityFunction上使用AffinityBackupFilter属性来排除同一个机架中分配用于备份副本的若干节点。

AffinityFunction是一个可插拔的API,也可以提供这个函数的自定义实现,AffinityFunctionAPI的三个主要方法是:

3.10.5.CacheAffinityKeyMapper

CacheAffinityKeyMapper是一个可插拔的API,负责为一个缓存键获取关系键。通常缓存键本身就用于关系键,然而为了与其他的缓存键并置,有时改变一个缓存键的关系是很重要的。
CacheAffinityKeyMapper的主要方法是affinityKey(key),他会为一个缓存键返回一个affinityKey。Ignite默认会查找加注@CacheAffinityKeyMapped注解的所有属性和方法。如果没有找到这样的属性或者方法,那么缓存键本身就会用做关系键。如果找到了这样的属性或者方法,那么这个属性或者方法的值就会从CacheAffinityKeyMapper.affinityKey(key)方法返回,这样只要需要,就可以指定一个替代的关系键,而不是缓存键本身。

3.11.过期策略

过期策略指定了在缓存条目过期之前必须经过的时间量,时间可以从创建,最后访问或者修改时间开始计算。
过期策略可以通过任何预定义的ExpiryPolicy实现进行设置。

类名 创建时间 最后访问时间 最后更新时间
CreatedExpiryPolicy 可用
AccessedExpiryPolicy 可用 可用
ModifiedExpiryPolicy 可用 可用
TouchedExpiryPolicy 可用 可用 可用
EternalExpiryPolicy

也可以自定义ExpiryPolicy实现。
过期策略可以在CacheConfiguration中进行设置,这个策略可以用于缓存内的所有条目。

  1. cfg.setExpiryPolicyFactory(CreatedExpiryPolicy.factoryOf(Duration.ZERO));

也可以在对缓存进行单独操作时对过期策略进行设置或者修改。

  1. IgniteCache<Object, Object> cache = cache.withExpiryPolicy(
  2. new CreatedExpiryPolicy(new Duration(TimeUnit.SECONDS, 5)));

此策略将用于在返回的缓存实例上调用的每个操作。

3.11.1.Eager TTL(热生存时间)

过期的条目从缓存中删除,既可以马上删除,也可以通过不同的缓存操作涉及它们再删除。只要有一个缓存配置启用了Eager TTL,Ignite就会创建一个线程在后台清理过期的数据。
Eager TTL可以通过CacheConfiguration.eagerTtl属性启用或者禁用(默认值是true)。
XML:

  1. <bean class="org.apache.ignite.configuration.CacheConfiguration">
  2. <property name="eagerTtl" value="true"/>
  3. </bean>

3.12.数据再平衡

3.12.1.摘要

当一个新节点加入集群时,已有节点会放弃一部分缓存条目的所有权转交给新的节点,以使整个网格在任何时候都保持键的均等平衡。
如果新的节点成为一些分区的主节点或者备份节点,他会从该分区之前的主节点获取数据,或者从该分区的备份节点之一获取数据。一旦分区全部载入新的节点,旧节点就会被标记为过时然后该节点在所有当前的事务完成之后最终会被退出。因此,在一些很短的时间段,在网络发生变化之后,有一种情况是在缓存中对于一个键备份的数量可能比事先配置的多。然而,一旦再平衡完成,额外的备份会被删除。

3.12.2.再平衡模式

下面的再平衡模式是在CacheRebalanceMode枚举中定义的:

缓存再平衡模式 描述
SYNC 同步再平衡模式,直到所有必要的数据全部从其他有效节点加载完毕分布式缓存才会启动,这意味着所有对缓存的开放API的调用都会阻塞直到再平衡结束
ASYNC 异步平衡模式,分布式缓存会马上启动,然后在后台会从其他节点加载所有必要的数据
NONE 该模式下不会发生再平衡,这意味着要么在访问数据时从持久化存储载入,要么数据被显式地填充。

默认启用ASYNC再平衡模式,要使用其他的再平衡模式,可以像下面这样设置CacheConfigurationrebalanceMode属性:
XML:

  1. <bean class="org.apache.ignite.configuration.IgniteConfiguration">
  2. ...
  3. <property name="cacheConfiguration">
  4. <bean class="org.apache.ignite.configuration.CacheConfiguration">
  5. <!-- Set synchronous rebalancing. -->
  6. <property name="rebalanceMode" value="SYNC"/>
  7. ...
  8. </bean
  9. </property>
  10. </bean>

Java:

  1. CacheConfiguration cacheCfg = new CacheConfiguration();
  2. cacheCfg.setRebalanceMode(CacheRebalanceMode.SYNC);
  3. IgniteConfiguration cfg = new IgniteConfiguration();
  4. cfg.setCacheConfiguration(cacheCfg);
  5. // Start Ignite node.
  6. Ignition.start(cfg);

3.12.3.再平衡线程池调节

IgniteConfiguration提供了一个setRebalanceThreadPoolSize方法,他可以为了再平衡的需要,从Ignite的系统线程池中获取一定数量的线程,每当一个节点需要向远程节点发送一批数据时,或者需要处理来自相反方向的一批数据时,都会从池中获取一个系统线程,这个远程节点既可能是一个分区的主节点,也可能是备份节点。这个线程在批处理发送或者接收完以及处理完之后,就会被释放。
默认只会有一个线程用于再平衡。这基本上意味着在一个特定的时间点只有一个线程用于从一个节点到另一节点传输批量数据,或者处理来自远端的批量数据。举例来说,如果集群有两个节点和一个缓存,那么所有缓存的分区都会一个一个地按照顺序进行再平衡。如果集群有两个节点和两个不同的缓存,那么这些缓存会以并行的方式进行再平衡,但是在一个特定的时间点,就像上面解释的那样,只会处理属于某一个特定缓存的批量数据。

每个缓存的分区数量不会影响再平衡的性能,有影响的是数据的总量,再平衡线程池大小以及下面章节列出的其他参数。

根据系统中缓存的数量以及缓存中存储的数据量,如果再平衡线程池的大小为1,要将所有的数据再平衡至一个节点上,会花费很长的时间。要加快预加载的进程,可以根据需要增加IgniteConfiguration.setRebalanceThreadPoolSize的值。
假定将IgniteConfiguration.setRebalanceThreadPoolSize的值设为4然后考虑上述的示例,再平衡的过程会如下所示:

在内部,系统线程池广泛用于和缓存有关的所有操作(put,get等),SQL引擎和其他模块,因此将IgniteConfiguration.setRebalanceThreadPoolSize设置为一个很大的值会显著提高再平衡的性能,但是会影响应用的性能。

3.12.4.再平衡消息调节

当再平衡器将数据从一个节点传输到另一个节点时,他会将整个数据集拆分为多个批次然后将每一个批次作为一个单独的消息进行发送。如果数据集很大的话那么就会有很多的消息要发送,CPU和网络就会过度的消耗,这时在再平衡消息之间进行等待是合理的,以使由于再平衡过程导致的性能下降冲击最小化。这个时间间隔可以通过CacheConfigurationrebalanceThrottle属性进行控制,他的默认值是0,意味着在消息之间没有暂停,注意单个消息的大小也可以通过rebalanceBatchSize属性进行设置(默认值是512K)。
比如,如果希望再平衡器间隔100ms每个消息发送2MB数据,需要提供如下的配置:
XML:

  1. <bean class="org.apache.ignite.configuration.IgniteConfiguration">
  2. ...
  3. <property name="cacheConfiguration">
  4. <bean class="org.apache.ignite.configuration.CacheConfiguration">
  5. <!-- Set batch size. -->
  6. <property name="rebalanceBatchSize" value="#{2 * 1024 * 1024}"/>
  7. <!-- Set throttle interval. -->
  8. <property name="rebalanceThrottle" value="100"/>
  9. ...
  10. </bean
  11. </property>
  12. </bean>

Java:

  1. CacheConfiguration cacheCfg = new CacheConfiguration();
  2. cacheCfg.setRebalanceBatchSize(2 * 1024 * 1024);
  3. cacheCfg.setRebalanceThrottle(100);
  4. IgniteConfiguration cfg = new IgniteConfiguration();
  5. cfg.setCacheConfiguration(cacheCfg);
  6. // Start Ignite node.
  7. Ignition.start(cfg);

3.12.5.配置

缓存的再平衡行为可以有选择地通过下面的配置属性进行定制:
CacheConfiguration

setter方法 描述 默认值
setRebalanceMode 分布式缓存的再平衡模式,细节可以参照再平衡模式章节 ASYNC
setRebalancePartitionedDelay 再平衡延迟时间(毫秒) 0,无延迟
setRebalanceBatchSize 单个再平衡消息的大小(byte),再平衡算法会在发送数据之前将每个节点的整个数据集拆分成多个批次。 512K
setRebalanceThrottle 不建议,再平衡消息之间的等待时间(毫秒),用来避免CPU和网络的过载,注意应用在再平衡的过程中仍然可以正确执行 0,无间隔
setRebalanceOrder 要完成的再平衡的顺序,只有同步和异步再平衡模式的缓存才可以将再平衡顺序设置为非0值,具有更小值的缓存再平衡会被首先完成,再平衡默认是无序的 0
setRebalanceBatchesPrefetchCount 为了达到更好的性能,数据提供者节点会在再平衡开始时提供不止一个批次然后在下一个请求时提供一个新的批次。这个方法会设置再平衡开始时数据提供者节点产生的批次的数量 2
setRebalanceTimeout 节点间正在交换的等待再平衡消息的超时时间 10秒

IgniteConfiguration

setter方法 描述 默认值
setRebalanceThreadPoolSize 用于再平衡的线程的最大值 1,对整个集群的操作影响最小

3.13.拓扑验证

拓扑验证器用于验证集群网络拓扑对于未来的缓存操作是否有效。
拓扑验证器在每次集群拓扑发生变化时都会被调用(或者新节点加入或者已有节点故障或者其他的)。如果没有配置拓扑验证器,那么集群拓扑会被认为一直有效。
TopologyValidator.validate(Collection)方法返回true时,那么对于特定的缓存以及在这个缓存上的所有有效操作拓扑都会被认为是有效的,否则,该缓存上的所有更新操作都会抛出如下异常:

返回false以及声明拓扑无效后,当下一次拓扑发生变化时拓扑验证器可以返回正常状态。
示例:

  1. ...
  2. for (CacheConfiguration cCfg : iCfg.getCacheConfiguration()) {
  3. if (cCfg.getName() != null) {
  4. if (cCfg.getName().equals(CACHE_NAME_1))
  5. cCfg.setTopologyValidator(new TopologyValidator() {
  6. @Override public boolean validate(Collection<ClusterNode> nodes) {
  7. return nodes.size() == 2;
  8. }
  9. });
  10. else if (cCfg.getName().equals(CACHE_NAME_2))
  11. cCfg.setTopologyValidator(new TopologyValidator() {
  12. @Override public boolean validate(Collection<ClusterNode> nodes) {
  13. return nodes.size() >= 2;
  14. }
  15. });
  16. }
  17. }
  18. ...

在这个例子中,对缓存允许更新操作情况如下:

配置
拓扑验证器通过CacheConfiguration.setTopologyValidator(TopologyValidator)方法既可以用代码也可以用XML进行配置。

3.14.缓存指标

通过CacheMetrics接口,Ignite还可以监测和分布式缓存有关的统计数据。
CacheMetrics接口有各种指标,比如:缓存处理的put和get操作的总数,平均put和get时间,退出总数量,当前后写缓存存储缓冲区大小,以及更多的,参考CacheMetrics的javadoc可以看到完整的可用指标清单。
通过如下方式可以获得一个特定缓存的最新指标快照:

另外,CacheMetricsMXBean接口也可以用于访问缓存的指标,可以通过任意兼容JMX的工具或者API接入bean。如果要在应用中处理bean,通过IgniteCache.mxBean()或者IgniteCache.localMxBean()可以获得bean的引用。

启用缓存指标
要启用缓存指标收集,可以将对应缓存的CacheConfiguration.setStatisticsEnabled(boolean)配置为true

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注