Системный синтез

RAG умер. Да здравствует Neuro-Symbolic: Почему векторный поиск больше не работает для серьезного бизнеса

Автор: Александр Фищук, System Architect, идеолог Neuro-Symbolic AI

Содержание

1. Введение: Великое Отрезвление и конец эпохи «Генеративной Наивности»

Мировая технологическая индустрия завершает один из самых турбулентных и поучительных циклов в своей новейшей истории — цикл иррационального оптимизма, охвативший рынок в период с конца 2022 по 2024 год. В кулуарах Института Системного Синтеза (ISS) и на закрытых стратегических сессиях крупнейших корпораций мы характеризуем этот период как эпоху «Генеративной Наивности». Это было время, когда возникла и укрепилась квазирелигиозная вера в то, что вероятностная генерация текста, основанная на статистическом предсказании следующего токена, способна стать универсальным решением (Universal Solvent) для любых когнитивных, управленческих и инженерных задач человечества.

Бизнес, инвесторы и государственные структуры оказались в плену ложного ожидания: казалось, достаточно загрузить в контекстное окно гигабайты корпоративных инструкций, и «умная» модель сама разберется в хитросплетениях регламентов, начнет принимать взвешенные решения и кратно повысит эффективность труда. Однако к концу 2025 года мы наблюдаем фундаментальный, необратимый фазовый переход. Эйфория сменилась фазой жесткого, прагматичного, а зачастую и циничного скепсиса, который в классическом цикле зрелости технологий Gartner описывается как «Долина Разочарования» (Trough of Disillusionment). 

1.1 Анатомия «Пилотных Зомби»

Экономическая реальность внедрения искусственного интеллекта (ИИ) оказалась значительно жестче маркетинговых обещаний вендоров. Несмотря на колоссальные инвестиции — в среднем 1,9 млн долларов на предприятие в 2024 году — менее 30% топ-менеджеров глобальных корпораций удовлетворены реальным возвратом инвестиций (ROI).  Рынок перенасыщен тем, что я называю «пилотными зомби». Это проекты, которые блестяще выглядят в презентациях на профильных конференциях, демонстрируют впечатляющие результаты на рафинированных тестовых выборках, но рассыпаются в пыль при столкновении с реальной промышленной эксплуатацией, «грязными» данными, противоречивыми инструкциями и жесткими требованиями регуляторов.

Мы столкнулись с ситуацией, когда технологии, демонстрирующие чудеса в написании кода или генерации маркетинговых текстов, оказываются абсолютно беспомощными в задачах, требующих строгой логики и ответственности. Генеративный ИИ (GenAI) вошел в стадию, когда «вау-эффект» прошел, а вопросы надежности, безопасности и стоимости владения вышли на первый план.4

1.2 Кризис Доверия в Критической Инфраструктуре

Особенно остро этот кризис ощущается в сегментах, которые мы относим к «серьезному бизнесу»: атомная энергетика, оборонная промышленность, финтех, юридический консалтинг и управление КИИ (Критической Информационной Инфраструктурой). Здесь цена ошибки неприемлема. Если чат-бот интернет-магазина ошибется и порекомендует не тот товар, это репутационный риск. Если ИИ-ассистент главного инженера АЭС ошибется в интерпретации аварийного регламента, это риск техногенной катастрофы.

Наш глубокий анализ, проведенный в четвертом квартале 2025 года, показывает, что стандартные LLM (GPT-4, Claude, а также их российские аналоги от Сбера и Яндекса) непригодны для глубокого внедрения в реальный сектор экономики Российской Федерации без фундаментального изменения архитектуры.3 Мы столкнулись с эпистемологическим тупиком, который можно назвать «Ловушкой Галлюцинаций». Стохастическая природа архитектуры трансформеров неизбежно порождает конфабуляции. Модель не «знает» фактов, она лишь предсказывает вероятность.

Даже флагманская отечественная модель YandexGPT 5.1 Pro, несмотря на агрессивную оптимизацию и внедрение RAG (Retrieval-Augmented Generation), сохраняет уровень галлюцинаций в 16% в сложных доменах.  Для оператора, принимающего решения в условиях неопределенности, 16% брака — это не помощь, а саботаж. Более того, новые «рассуждающие» модели (Reasoning Models) порождают феномен «самоубеждения», выстраивая логически безупречные цепочки доказательств для ложных фактов, что делает ошибки еще более трудными для выявления человеком-оператором.

1.3 RAG как плацебо

Индустрия попыталась решить эту проблему с помощью RAG — Retrieval-Augmented Generation. Идея казалась спасительной: давайте найдем нужные документы в базе знаний, покажем их модели и скажем «отвечай только по тексту». Но RAG — это всего лишь «костыль», попытка прикрутить внешнюю память к вероятностному движку.

В этой статье я намерен доказать, что RAG в его классическом виде (векторный поиск + LLM) мертв для задач, требующих высокой точности. Мы уперлись в математические ограничения векторных представлений и стохастической генерации. Будущее промышленного ИИ не в том, чтобы заставить модель «лучше угадывать», а в том, чтобы научить систему «знать и доказывать».

Мы переходим к эпохе Neuro-Symbolic AI — гибридного подхода, объединяющего нейросетевую интуицию с жесткой символьной логикой. Это манифест перехода от вероятности к детерминизму.

2. Почему RAG не справляется: Вероятностная Ловушка (Probabilistic Trap)

Чтобы понять, почему текущий стек технологий терпит крах в корпоративном секторе, необходимо деконструировать механику RAG. В основе RAG лежит поиск информации через векторные базы данных. Текст превращается в многомерные векторы (эмбеддинги), и система ищет «ближайшие» векторы с помощью метрики косинусного сходства (Cosine Similarity).

Кажется, что это работает. Но для юриста, инженера или врача «похожесть» — это не то же самое, что «релевантность» или «истина».

2.1 Иллюзия Косинусного Сходства и Проблема Отрицания

Фундаментальная проблема векторного поиска заключается в том, что он оперирует семантической близостью, но слеп к логическим операторам, особенно к отрицанию. Векторные представления сжимают смысл в набор чисел, где контекст доминирует над деталями.

Рассмотрим классический пример из юридической практики. Возьмем две фразы:

  1. «Подсудимый виновен» (The defendant is guilty).
  2. «Подсудимый не виновен» (The defendant is not guilty).

С точки зрения векторного пространства, эти два предложения находятся экстремально близко друг к другу. Они используют одни и те же существительные («подсудимый»), одни и те же прилагательные («виновен») и обсуждают одну и ту же тему (вердикт суда). Разница лишь в короткой частице «не» (not). В 1536-мерном пространстве эмбеддинга эта частица создает лишь незначительное возмущение вектора. Косинусное сходство между этими фразами будет стремиться к 0.9 или выше. 

Для поисковой системы Google это нормально: если вы ищете «приговор виновен», вам могут быть интересны и статьи, обсуждающие оправдательные приговоры. Но для системы автоматизированного юридического анализа это катастрофа. Разница между этими фразами — это булева инверсия реальности. Одно означает тюрьму, другое — свободу. Векторный поиск не видит этой пропасти. Он «слеп» к антонимам и отрицаниям, если они находятся в схожем лексическом контексте. 

В реальных кейсах это приводит к тому, что RAG-система на запрос «Найди случаи нарушения контракта» может с радостью извлечь пункты, где говорится об отсутствии нарушений, просто потому что там много слов «нарушение» и «контракт». Это не «поиск смысла», это поиск «текстуры» текста.

2.2 Проклятие Размеренности и Шум

Вторая проблема векторного поиска — это так называемое «проклятие размерности» и чувствительность к шуму. Когда мы сжимаем сложный юридический документ или технический регламент в вектор, мы неизбежно теряем детали. Векторы являются «потерьным» (lossy) сжатием информации. 

В корпоративных данных часто встречается ситуация, когда документы структурно очень похожи (например, сотни типовых договоров), но отличаются критическими деталями (датами, суммами, условиями штрафов). Векторный поиск с трудом различает такие документы. Он может вернуть договор от 2020 года вместо 2025-го, потому что в договоре 2020 года чаще встречалось словосочетание из запроса пользователя.

Это явление, которое исследователи называют Document-Level Retrieval Mismatch (DRM), является критической точкой отказа. Система извлекает информацию из неправильного документа, потому что он семантически похож на запрос, и скармливает его LLM. LLM, будучи послушным генератором, пишет убедительный ответ на основе ложных данных.10

2.3 Феномен «Потерянного в Середине» (Lost in the Middle)

Существует миф, что увеличение контекстного окна (до 128k, 1M или 10M токенов) решает проблему поиска. «Давайте просто загрузим весь Налоговый кодекс в промпт», — говорят энтузиасты.

Исследования и практика показывают обратное. LLM страдают от феномена «Lost in the Middle». Они хорошо «запоминают» информацию в начале и в конце промпта, но часто игнорируют то, что находится в середине.   В юридическом анализе критическая оговорка («…за исключением случаев форс-мажора…») может находиться на 45-й странице 100-страничного документа. Вероятностная модель статистически склонна пропустить эту «иглу в стоге сена», если она не подсвечена явно.

2.4 Стохастический Попугай в контуре управления

Даже если RAG сработал идеально и извлек нужный кусок текста, мы сталкиваемся с природой самой LLM. Это вероятностная машина. Она не «рассуждает», она предсказывает следующее слово.

В сложных доменах, таких как медицина или юриспруденция, уровень ошибок «чистых» LLM достигает 17–33%.  При использовании RAG этот процент снижается, но не исчезает. Модель может «галлюцинировать», смешивая факты из извлеченного контекста со своими внутренними весами (знаниями, полученными при обучении).

Для бизнеса это означает риск. В кейсе с Samsung в 2023 году сотрудники загрузили проприетарный код в ChatGPT, что привело к утечке.3 Но даже без утечек, использование вероятностной модели для принятия детерминированных решений (например, «можно ли отгружать товар в эту страну?») недопустимо. Мы не можем строить системы безопасности на базе алгоритмов, которые «иногда ошибаются».

2.5 Экономическая Ловушка RAG

Наконец, экономика стандартного RAG-пайплайна становится неподъемной. Модель оплаты за токен (Intelligence as a Service) приводит к неконтролируемому росту операционных расходов (OpEx). Каждый запрос к векторной базе, каждый токен, отправленный в GPT-4 или YandexGPT, стоит денег.

Внедрение моделей класса Reasoning (например, OpenAI o1/o3), которые пытаются «думать» перед ответом, увеличивает стоимость транзакции до 600% из-за генерации скрытых цепочек рассуждений (Chain of Thought).  Для предприятия, обрабатывающего миллионы страниц документации, это делает автоматизацию экономически бессмысленной. Мы попадаем в «Ловушку OpEx», где чем больше мы работаем, тем беднее становимся.

Вердикт: RAG — это технология для поиска по корпоративной википедии, для HR-ботов и службы поддержки. Но для задач, требующих ответственности, логической строгости и гарантий безопасности, RAG мертв. Нам нужен подход, который переходит от вероятности к доказательности.

3. Решение: Neuro-Symbolic AI — Гибридный Разум

Если RAG — это попытка улучшить интуицию (System 1 по Канеману), то Neuro-Symbolic AI — это интеграция интуиции (System 1) и логики (System 2). Это не просто «следующий шаг», это возвращение к истокам ИИ на новом технологическом витке.

Нейро-символический подход объединяет две парадигмы:

  1. Нейронный компонент (Neural): Глубокое обучение (LLM). Отвечает за восприятие (Perception), работу с неструктурированными данными, гибкость языка и паттерн-матчинг. Это «глаза» и «уши» системы.
  2. Символьный компонент (Symbolic): Формальная логика, графы знаний, SMT-решатели. Отвечает за рассуждение (Reasoning), соблюдение правил, верификацию и детерминизм. Это «лобные доли» системы. 

3.1 Урок AlphaGeometry: Как ИИ научился доказывать

Лучшим доказательством жизнеспособности этого подхода стал прорыв Google DeepMind с системой AlphaGeometry. 

Решение геометрических задач олимпиадного уровня требует двух противоречивых навыков:

  • Творческая интуиция: Понять, где нужно провести дополнительную линию (auxiliary construction), чтобы решение стало возможным. Пространство вариантов здесь бесконечно.
  • Железная логика: Построить строгое доказательство, где каждый шаг вытекает из аксиом и теорем.

Чисто символьные системы (классические пруверы) застревали в комбинаторном взрыве, пытаясь перебрать все варианты построений. Чисто нейронные модели (LLM) выдавали решения, которые выглядели правдоподобно, но содержали логические дыры.

AlphaGeometry объединила их.

  1. Нейронная языковая модель генерирует интуитивные догадки («попробуй соединить точку А и точку D»).
  2. Символьный дедуктивный движок берет эту догадку и пытается строго доказать теорему, используя формальные правила. Если не получается, он возвращает управление нейросети: «Попробуй что-то другое».

Результат: система решила 25 из 30 задач Международной математической олимпиады, сравнявшись с золотыми медалистами-людьми и разгромив предыдущие state-of-the-art системы. 

3.2 Машинный Детерминизм в Бизнесе

В Институте Системного Синтеза мы применяем эту парадигму к бизнес-задачам. Для нас «геометрическая задача» — это проверка контракта на соответствие Налоговому кодексу или проверка конфигурации турбины на безопасность.

  • Нейросеть (LLM) выступает в роли переводчика. Она читает «грязный» человеческий текст (договор, лог, приказ) и переводит его в структурированные факты.
  • Символьное ядро (Graph + Solver) проверяет эти факты на соответствие жестким правилам (законам, регламентам).

Мы называем это доктриной Машинного Детерминизма.  Мы не просим ИИ «подумать» над контрактом. Мы просим его извлечь данные, чтобы детерминированный алгоритм мог вычислить законность контракта.

Этот подход решает проблему галлюцинаций радикально. Если LLM «придумает» факт, которого нет в графе, или предложит действие, нарушающее аксиому безопасности, символьный движок просто заблокирует этот вывод. Это Correctness by Construction — корректность, заложенная в архитектуру.

4. Архитектура: Mistral 7B + Knowledge Graph + Z3 Prover

Давайте перейдем от теории к «железу». Как выглядит реальная архитектура промышленной Neuro-Symbolic системы? Мы рассмотрим это на примере системы ISS-Advocate, разработанной для автоматизации юридического комплаенса. 

Архитектура строится на принципе разделения ответственности (Separation of Concerns). Вместо одного «Бога из машины» (GPT-4) мы используем конвейер специализированных агентов.

Слой 1: Граф Знаний (Knowledge Graph) — Источник Истины

Мы отказываемся от векторных баз данных как основного хранилища знаний. Векторы — это вероятностная проекция. Графы — это явная структура.

Мы используем Knowledge Graph (реализованный на Neo4j или Google Firestore).  В отличие от векторной БД, граф хранит данные в виде Сущностей (Nodes) и Связей (Edges).

Характеристика Векторная БД (RAG) Граф Знаний (Neuro-Symbolic)
Структура Плоский список чисел (эмбеддингов) Сеть связанных понятий
Отношения Неявные, основаны на близость Явные, поименованные (A является B)
Логика «Похоже на правду» «Истинно, так как связано»
Обновление Пересчет индексов Мгновенное добавление узла/связи

Пример:

В векторной базе связь между «Головной компанией» и «Дочкой» размыта. В графе это четкое ребро: (Company A)—>(Company B). Мы можем детерминировано пройти по этому ребру и узнать всех бенефициаров.

Граф ISS-Advocate содержит Налоговый кодекс, прецеденты и внутренние регламенты. Обновление происходит ежедневно через парсинг официальных источников. Если закон меняется, мы обновляем узел графа, и система мгновенно начинает учитывать новую норму. LLM не нужно переобучать. 

Использование онтологий (схем данных) в графе позволяет задавать жесткие правила. Например, онтология может требовать, чтобы у каждого узла типа «Контракт» обязательно была «Дата». Векторная база примет любой текст, граф — отвергнет неполные данные. 

Слой 2: Нейронный Клерк (Mistral 7B)

Мы используем LLM, но не как «мозг», а как «глаза» и «язык». Мы выбираем малые языковые модели (SLM), такие как Mistral 7B (или Qwen-2.5, Llama-3). 

Почему Mistral 7B?

  1. Суверенитет: Она работает локально (On-Premise). Нам не нужны облака OpenAI. Достаточно одной карты NVIDIA RTX 4090 или A100. Это критично для соблюдения 187-ФЗ и защиты от санкций («Облачная Удавка»).3
  2. Цена: Локальный инференс стоит копейки (электричество) по сравнению с API токенами.
  3. Специализация: Мы не просим модель знать всё о мире. Мы используем технику Context Injection. В промпт мы подаем только факты, извлеченные из Графа (подграф), и жестко инструктируем: «Используй ТОЛЬКО факты из контекста. Внешние знания запрещены».

Задача Mistral — перевести вопрос пользователя («Можно ли заключить этот договор?») в запрос к графу, а затем перевести ответ графа в человеческий язык.

Слой 3: Kill Switch (Z3 Solver)

Это сердце Neuro-Symbolic. Это то, что делает систему безопасной для бизнеса.

Мы используем SMT-решатель (Satisfiability Modulo Theories), в частности, Z3 Prover от Microsoft Research.25 Это инструмент формальной верификации, который используется для доказательства корректности микросхем и критического ПО.

В нашей архитектуре Z3 выступает как «Конституционный Суд» или Kill Switch. 

Алгоритм работы:

  1. Кодификация Закона: Мы переводим законы и бизнес-правила в формулы логики первого порядка.
    • Человеческий язык: «Сделки свыше 1 млн рублей требуют одобрения Совета директоров».
    • Код для Z3 (Python):
      Python
      from z3 import *
      contract_val = Int(‘contract_val’)
      board_approval = Bool(‘board_approval’)
      is_valid = Implies(contract_val > 1000000, board_approval == True)
  2. Верификация: Когда LLM генерирует предложение (например, «Одобрить контракт на 2 млн без подписи Совета»), система конвертирует это предложение в логические утверждения.
  3. Проверка: Z3 проверяет совместимость предложения с законами.
    • В нашем примере Z3 вернет UNSAT (Unsatisfiable), так как 2000000 > 1000000 и board_approval == False противоречат правилу is_valid.
  4. Блокировка: Система физически блокирует вредный ответ. Пользователь видит не галлюцинацию, а сообщение об ошибке: «Действие заблокировано: нарушение правила о лимите сделок».

Это обеспечивает математическую гарантию безопасности. Мы не надеемся на вероятность. Мы доказываем безопасность каждого ответа. 

5. Экономика Neuro-Symbolic: Почему это выгодно

Переход на Neuro-Symbolic — это не только про надежность, это про деньги. Финансовая модель ISS показывает радикальное отличие от классического SaaS.3

5.1 CapEx вместо OpEx

Модель RAG заставляет вас платить за каждый чих. Это бесконечный OpEx (операционные расходы). Neuro-Symbolic требует вложений на старте (создание Графа, кодирование правил Z3 — это CapEx), но затем стоимость эксплуатации стремится к нулю. Вы владеете «заводом по производству решений», а не арендуете его.

При промышленных масштабах (миллионы документов) локальная модель Mistral 7B окупает стоимость железа за 2-3 месяца по сравнению с затратами на GPT-4 API.

5.2 Стоимость Ошибки и LTV

В B2B (Business-to-Business) главная метрика — не скорость, а «Избегание Риска» (Risk Avoidance).

  • Если RAG-бот сэкономил юристу 1 час ($100), но пропустил риск штрафа на $1 млн, ROI проекта отрицательный.
  • Если Neuro-Symbolic бот нашел этот риск благодаря Z3, он окупил себя на 10 лет вперед.

По нашим расчетам, LTV:CAC (пожизненная ценность клиента к стоимости привлечения) для таких систем составляет 13.9:1.3 Это феноменальный показатель. Клиенты, внедрившие верифицируемый ИИ, не уходят. Это создает мощнейший Vendor Lock-in (привязку к поставщику), так как заменить систему, интегрированную в логику предприятия, на «болтливый» ChatGPT невозможно.

5.3 Суверенная Премия

В России фактор суверенитета является определяющим. Возможность работать в закрытом контуре (Air-Gap), без передачи данных наружу, открывает доступ к рынкам, закрытым для Яндекса и OpenAI — ОПК, энергетика, госсектор. Это «Голубой океан» с высокими чеками и длинными контрактами.  Зависимость от облака становится юридически недопустимой для субъектов КИИ согласно Приказу ФСТЭК № 117.

6. Заключение: Эра Машинного Мышления

«Великое Отрезвление» 2025 года — это не конец ИИ. Это конец его детства. Мы убираем в коробку игрушки — болтливые, галлюцинирующие генераторы текстов — и берем в руки инструменты.

RAG был необходимым этапом. Он показал нам ценность соединения LLM с данными. Но он опирался на порочный механизм (векторное сходство) для задач, требующих предельной точности.

Будущее — за Neuro-Symbolic AI.

  • Это Гибрид: Интуиция нейросети + Строгость логики.
  • Это Детерминизм: Математика вместо вероятности.
  • Это Суверенитет: Ваш интеллект работает на вашем сервере.

Для серьезного бизнеса — инженера, удерживающего турбину в рабочем режиме, юриста, защищающего активы, банкира, оценивающего риски — векторного поиска больше недостаточно. Они требуют определенности графа и строгости солвера.

RAG умер. Он умер в тот момент, когда мы осознали, что «вероятно» — это не то же самое, что «истинно».

Да здравствует Neuro-Symbolic. Эра Машинного Мышления началась.

Основные выводы для CTO и Архитекторов:

Что делать Почему
Перестаньте оптимизировать RAG Никакой промпт-инжиниринг не исправит слепоту векторов к логике.
Инвестируйте в Графы Знаний Ваша структура данных — это ваш главный актив. Чистая онтология стоит дороже модели.
Изучайте SMT-решатели (Z3) Если вы можете закодировать правила, вы можете математически верифицировать ИИ.
Выбирайте локальные SLM Прекратите платить «налог на интеллект» облакам. Mistral 7B на своем железе надежнее и дешевле.
Стройте «Клетки», а не Модели Не пытайтесь сделать модель идеальной. Постройте идеальный валидатор (Kill Switch) вокруг нее.

Статья основана на материалах стратегических исследований Института Системного Синтеза (ISS), включая «Стратегический меморандум 2026» и техническую концепцию системы «ISS-Advocate».3

Источники

  1. Gartner: Why Gen AI is Hitting a Disillusionment Phase | AI Magazine, дата последнего обращения: декабря 15, 2025, https://aimagazine.com/news/gartner-supply-chain-cybersecurity
  2. Gartner: Generative AI in Trough of Disillusionment | Procurement Magazine, дата последнего обращения: декабря 15, 2025, https://procurementmag.com/news/gartner-generative-ai-trough-disillusionment
  3. Концепция ИИ-Адвоката_ Техническое Описание.docx
  4. Gen AI descends into disillusionment — CIO, дата последнего обращения: декабря 15, 2025, https://www.cio.com/article/4046443/gen-ai-descends-into-disillusionment.html
  5. Negated Adjectives and Antonyms in Distributional Semantics: not similar?, дата последнего обращения: декабря 15, 2025, https://journals.openedition.org/ijcol/457
  6. Cosine Similarity in Sentence Transformers: How to detect negative similarity (e.g., contradictions) : r/LanguageTechnology — Reddit, дата последнего обращения: декабря 15, 2025, https://www.reddit.com/r/LanguageTechnology/comments/15egrkb/cosine_similarity_in_sentence_transformers_how_to/
  7. Stance-Aware Sentence Transformers for Opinion Mining — IMDEA Networks Principal, дата последнего обращения: декабря 15, 2025, https://dspace.networks.imdea.org/bitstream/handle/20.500.12761/1851/StanceAware_SBERT___ACL.pdf?sequence=1
  8. It Is Not Easy To Detect Paraphrases: Analysing Semantic Similarity With Antonyms and Negation Using the New SemAntoNeg Benchmark — ACL Anthology, дата последнего обращения: декабря 15, 2025, https://aclanthology.org/2022.blackboxnlp-1.20.pdf
  9. Vector Embeddings Are Lossy. Here’s What to Do About It. | by Brian Godsey — Medium, дата последнего обращения: декабря 15, 2025, https://medium.com/data-science/vector-embeddings-are-lossy-heres-what-to-do-about-it-4f9a8ee58bb7
  10. Towards Reliable Retrieval in RAG Systems for Large Legal Datasets — arXiv, дата последнего обращения: декабря 15, 2025, https://arxiv.org/html/2510.06999v1
  11. Towards Reliable Retrieval in RAG Systems for Large Legal Datasets — ACL Anthology, дата последнего обращения: декабря 15, 2025, https://aclanthology.org/2025.nllp-1.3.pdf
  12. Fundamental Failure Modes in RAG Systems | PromptQL Blog, дата последнего обращения: декабря 15, 2025, https://promptql.io/blog/fundamental-failure-modes-in-rag-systems
  13. Neurosymbolic Governance: The Future of AI Regulation, Ethics & Policy-Aware Reasoning, дата последнего обращения: декабря 15, 2025, https://medium.com/@raktims2210/neurosymbolic-governance-the-future-of-ai-regulation-ethics-policy-aware-reasoning-d8571f506bf1
  14. From Logic to Learning: The Future of AI Lies in Neuro-Symbolic Agents, дата последнего обращения: декабря 15, 2025, https://builder.aws.com/content/2uYUowZxjkh80uc0s2bUji0C9FP/from-logic-to-learning-the-future-of-ai-lies-in-neuro-symbolic-agents
  15. дата последнего обращения: декабря 15, 2025, https://deepmind.google/blog/alphageometry-an-olympiad-level-ai-system-for-geometry/#:~:text=AlphaGeometry%20is%20a%20neuro%2Dsymbolic,proofs%20for%20complex%20geometry%20theorems.
  16. AlphaGeometry: A Step Toward AGI? | by Nathan Anecone — Medium, дата последнего обращения: декабря 15, 2025, https://medium.com/@nanecone/alphageometry-a-step-toward-agi-eb7d5f9d5c6b
  17. What is DeepMind AlphaGeometry? — DataCamp, дата последнего обращения: декабря 15, 2025, https://www.datacamp.com/blog/what-is-deepmind-alphageometry
  18. AlphaGeometry: An Olympiad-level AI system for geometry — Google DeepMind, дата последнего обращения: декабря 15, 2025, https://deepmind.google/blog/alphageometry-an-olympiad-level-ai-system-for-geometry/
  19. Vector Databases vs Knowledge Graphs: Which One Fits Your AI Stack? | by Nitin Kaushal, дата последнего обращения: декабря 15, 2025, https://medium.com/@nitink4107/vector-databases-vs-knowledge-graphs-which-one-fits-your-ai-stack-816951bf2b15
  20. Knowledge Graph vs. Vector Database for Grounding Your LLM — Neo4j, дата последнего обращения: декабря 15, 2025, https://neo4j.com/blog/genai/knowledge-graph-vs-vectordb-for-retrieval-augmented-generation/
  21. Ontologies: Blueprints for Knowledge Graph Structures — FalkorDB, дата последнего обращения: декабря 15, 2025, https://www.falkordb.com/blog/understanding-ontologies-knowledge-graph-schemas/
  22. Ontologies in Neo4j: Semantics and Knowledge Graphs, дата последнего обращения: декабря 15, 2025, https://neo4j.com/blog/knowledge-graph/ontologies-in-neo4j-semantics-and-knowledge-graphs/
  23. Robustness of Neurosymbolic Reasoners on First-Order Logic Problems — arXiv, дата последнего обращения: декабря 15, 2025, https://arxiv.org/html/2509.17377v2
  24. Mistral 7b — Lark, дата последнего обращения: декабря 15, 2025, https://www.larksuite.com/en_us/topics/ai-glossary/mistral-7b
  25. ProofOfThought: LLM-based reasoning using Z3 theorem proving — DEV Community, дата последнего обращения: декабря 15, 2025, https://dev.to/technoblogger14o3/proofofthought-llm-based-reasoning-using-z3-theorem-proving-1jkh
  26. Z3 API in Python — TAU, дата последнего обращения: декабря 15, 2025, https://www.cs.tau.ac.il/~msagiv/courses/asv/z3py/guide-examples.htm
  27. Regexes in the Z3 Theorem Prover — — Andrew Helwer, дата последнего обращения: декабря 15, 2025, https://ahelwer.ca/post/2022-01-19-z3-rbac
  28. Programming Z3 — Stanford CS Theory, дата последнего обращения: декабря 15, 2025, https://theory.stanford.edu/~nikolaj/programmingz3.html

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *