Перейти к основному содержимому

150 записей с тегом "Данные"

Посмотреть все теги

· 7 мин. чтения

1. Обзор

Apache Lucene — это полнотекстовый поисковый движок, который можно использовать с различными языками программирования.

В этой статье мы попытаемся понять основные концепции библиотеки и создать простое приложение.

2. Настройка Мавена

Для начала давайте сначала добавим необходимые зависимости:

· 5 мин. чтения

1. Обзор

Анализаторы Lucene используются для анализа текста при индексировании и поиске документов.

Мы кратко упомянули об анализаторах в нашем вводном туториале .

В этом руководстве мы обсудим часто используемые анализаторы, как создать собственный анализатор и как назначить разные анализаторы для разных полей документа .

2. Зависимости Maven

· 3 мин. чтения

1. Обзор

Apache Lucene — это полнотекстовый поисковый движок, который может использоваться различными языками программирования. Чтобы начать работу с Lucene, см. нашу вводную статью здесь .

В этой быстрой статье мы проиндексируем текстовый файл и найдем образцы строк и текстовые фрагменты в этом файле.

2. Настройка Мавена

Сначала добавим необходимые зависимости:

· 5 мин. чтения

1. Обзор

В этом кратком руководстве мы рассмотрим использование OpenPDF в Java для программного преобразования файлов HTML в форматы PDF .

2. ОпенПДФ

OpenPDF — это бесплатная библиотека Java для создания и редактирования PDF-файлов под лицензиями LGPL и MPL. Это форк программы iText. Фактически, до версии 5 код для создания PDF с помощью OpenPDF был почти идентичен API iText. Это хорошо поддерживаемое решение для создания PDF-файлов на Java.

3. Преобразование с помощью летающей тарелки

· 5 мин. чтения

1. Введение

Во время передачи сообщений в Apache Kafka клиент и сервер договариваются об использовании общего синтаксического формата. Apache Kafka предоставляет конвертеры по умолчанию (такие как String и Long ), но также поддерживает пользовательские сериализаторы для конкретных случаев использования. В этом уроке мы увидим, как их реализовать.

2. Сериализаторы в Apache Kafka

Сериализация — это процесс преобразования объектов в байты . Десериализация — это обратный процесс — преобразование потока байтов в объект. Короче говоря, он преобразует контент в удобочитаемую и интерпретируемую информацию .

Как мы уже упоминали, Apache Kafka предоставляет сериализаторы по умолчанию для нескольких основных типов и позволяет нам реализовывать собственные сериализаторы:

· 11 мин. чтения

1. Обзор

В этой статье мы рассмотрим работу с иерархиями классов в Джексоне.

Двумя типичными вариантами использования являются включение метаданных подтипа и игнорирование свойств, унаследованных от суперклассов. Мы собираемся описать эти два сценария и пару обстоятельств, когда требуется особое отношение к подтипам.

2. Включение информации о подтипе

Есть два способа добавить информацию о типе при сериализации и десериализации объектов данных, а именно глобальная типизация по умолчанию и аннотации для каждого класса.

· 8 мин. чтения

1. Обзор

В этом руководстве мы рассмотрим самые распространенные исключения ДжексонаJsonMappingException и UnrecognizedPropertyException .

Наконец, мы кратко обсудим ошибки Джексона «Нет такого метода».

2. JsonMappingException : невозможно создать экземпляр

· 6 мин. чтения

1. Обзор

В этом кратком руководстве мы рассмотрим сериализацию и десериализацию карт Java с помощью Jackson .

Мы покажем, как сериализовать и десериализовать Map<String, String> , Map<Object, String> и Map<Object, Object> в строки в формате JSON и обратно . ``

2. Конфигурация Maven

· 5 мин. чтения

1. Обзор

В этой статье мы рассмотрим библиотеку KafkaStreams .

KafkaStreams разработан создателями Apache Kafka . Основная цель этой части программного обеспечения — позволить программистам создавать эффективные потоковые приложения в режиме реального времени, которые могут работать как микросервисы.

KafkaStreams позволяет нам получать из тем Kafka, анализировать или преобразовывать данные и, возможно, отправлять их в другую тему Kafka.

Чтобы продемонстрировать KafkaStreams, мы создадим простое приложение, которое читает предложения из темы, подсчитывает вхождения слов и печатает количество слов.

Важно отметить, что библиотека KafkaStreams не является реактивной и не поддерживает асинхронные операции и обработку обратного давления.

· 7 мин. чтения

1. Введение

Apache Kafka — самая популярная распределенная и отказоустойчивая система обработки потоков с открытым исходным кодом. Kafka Consumer предоставляет основные функции для обработки сообщений. Kafka Streams также обеспечивает потоковую обработку в реальном времени поверх клиента Kafka Consumer.

В этом руководстве мы объясним функции Kafka Streams, чтобы упростить и упростить обработку потоков.

2. Разница между потоками и потребительскими API

2.1. Потребительский API Кафки