Лемешко Андрей Викторович
Розробка самовiдновлюваних та логiчно когерентних наукових теорiй за допомогою Штучного Iнтелекту

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:
Школа кожевенного мастерства: сумки, ремни своими руками Типография Новый формат: Издать свою книгу
 Ваша оценка:

Розробка самовдновлюваних та логчно когерентних наукових теорй за допомогою Штучного нтелекту (Ш).

Пдзаголовок: Фреймворк ндукованого Розширення Теор Штучного нтелекту (IAI-TE))

(Engineering Self-Restoring and Logically Coherent Scientific Theories with Artificial Intelligence (AI):The Induced AI-Theory Expansion (IAI-TE) Framework)

Andriy Lemeshko
Doctor of Philosophy, Associate Professor
Taras Shevchenko National University of Kyiv, Ukraine
ORCID: 0000-0001-8003-3168

Abstract

Large Language Models (LLMs) demonstrate remarkable generative and deductive capabilities but fundamentally lack intrinsic mechanisms of truth, consistency, and structural memory. Their statistical nature makes them prone to hallucinations, logical drift, and loss of coherence when operating beyond the limits of the context window. These constraints render LLMs unreliable for generating or expanding scientific theoriesdomains that require strict axiomatic foundations, stable logical structure, and reproducible reasoning.

This paper introduces Induced AI-Theory Expansion (IAITE), a new methodological and epistemological framework that enables LLMs to construct, extend, and regenerate scientific theories in a controlled and logically consistent manner. IAITE is built upon a three-level architectureAxiomatic Core (Level 1), Conceptual Codex (Level 2), and Full Specification (Level 3)which together function as artificial filters of truth, structure, and consistency. This architecture transforms the generative capabilities of LLMs into a disciplined deductive engine.

We demonstrate the effectiveness of IAITE using the Temporal Theory of the Universe (TTU) as a prototype. Using only a compact axiomatic kernel (~57 KB), an LLM can fully reconstruct the logical framework of TTU, derive gravitational laws, recover geometric structure, and replicate the theory's foundational equations without prior exposure to the theory in its training data. This proves that IAITE enables actual deduction, not memorization.

Beyond physics, the proposed methodology can be generalized to any scientific domain requiring axiomatic rigor and reproducible reasoning. It resolves three fundamental limitations of modern LLMshallucinations, contextwindow dependence, and unpredictabilityand establishes a reproducible, machineresilient format of scientific knowledge. We argue that this framework represents the emergence of Algorithmic Epistemology and marks the beginning of PostBook Science, where theories become executable, selfrestoring systems rather than static documents.

Keywords: AIResilient Science; Algorithmic Epistemology; Axiomatic Core; Consistency Enforcement; Executable Theory; Induced AITheory Expansion (IAITE); Large Language Models; Logical Deduction; Scientific Reasoning; Temporal Theory of the Universe (TTU); Theory Reconstruction; PostBook Science; Knowledge Architecture; Scientific Methodology.

Змст.

(Анотаця)
(Ключов слова)

1.Вступ

2. Критер вибору теор для демонстрац IAI-TE
2.1. Мнмальний зовншнй вплив (Низька популярнсть)
2.2. Концептуальна новизна
2.3. Темпоральна Теоря Всесвту (TTU) як деальний прототип

3. Методологя IAI-TE: Трирвнева архтектура знання
3.1. Флософське пдрунтя: вд галюцинац до дедукц
3.2. Цикл IAI-TE: Схема роботи трьох штучних фльтрв

4. Опис архтектурних рвнв
4.1. Рвень 1: Аксоматичне ядро (A-Core)
* 4.1.1. Мета та функця
* 4.1.2. Приклад вдновлення основ TTU
* 4.1.3. Практичн рекомендац: включення моств та таблиць екввалентност
4.2. Рвень 2: Концептуальний кодекс (S-Template)
* 4.2.1. Мета та функця
* 4.2.2. Практичн рекомендац: структура, термнологя, фзична нтерпретаця
4.3. Рвень 3: Повна специфкаця (Full Specification)
* 4.3.1. Мета та функця
* 4.3.2. Практичн рекомендац: атомн виведення, прогнози, академчний апарат
4.4. Синтез: Як три рвн забезпечують AI-Resilience

5. Демонстраця ефективност: Вдновлення TTU
5.1. Процес вдновлення (опис експерименту)
5.2. Результати: вдновлений логчний каркас та ключов висновки
5.3. Обрунтування дедукц (проти меморзац)

6. Обговорення
6.1. Порвняння з снуючими пдходами (FAIR, Символьний Ш, Експертн системи)
6.2. Чому IAI-TE новим пдходом? сторичний та методологчний контекст
6.3. AI-Resilient Science як нова парадигма: вд статично книги до виконуваного алгоритму
6.4. Рол в новй парадигм: Людина як нженер нтуц, Ш як Двигун Дедукц
6.5. Обмеження методу IAI-TE та напрями майбутнх дослджень

7. Висновок: Алгоритмчна епстемологя та початок пост-книжково науки
7.1. Узагальнення ключових положень
7.2. Науковий внесок та перспективи

Список лтератури (References)

Анотаця

Велик мовн модел (LLM) демонструють видатн генеративн та дедуктивн можливост, але в хнй основ вдсутн вбудован механзми стинност, узгодженост та структурно пам'ят. хня статистична природа робить х схильними до галюцинацй, логчного дрейфу та втрати когерентност пд час роботи за межами обмежень контекстного вкна. Ц обмеження роблять LLM ненадйними для генерац чи розширення наукових теорй областей, що вимагають суворих аксоматичних основ, стабльно логчно структури та вдтворюваного мркування.

У цй статт представлено ндуковане Розширення Науково Теор за допомогою Ш (IAITE)  новий методологчний та епстемологчний фреймворк, який нада LLM здатнсть конструювати, розширювати та регенерувати науков теор контрольованим логчно узгодженим чином. IAITE побудовано на трирвневй архтектур  Аксоматичне Ядро (Рвень 1), Концептуальний Кодекс (Рвень 2) та Повна Специфкаця (Рвень 3)  яка разом функцону як штучн фльтри стинност, структури та узгодженост. Ця архтектура перетворю генеративн можливост LLM на дисциплнований дедукцйний механзм.

Ми демонструмо ефективнсть IAITE, використовуючи Темпоральну Теорю Всесвту (TTU) як прототип. Використовуючи лише компактне аксоматичне ядро (~57 КБ), LLM може повнстю реконструювати логчний каркас TTU, вивести закони гравтац, вдновити геометричну структуру та вдтворити фундаментальн рвняння теор без попереднього знайомства з нею у свох тренувальних даних. Це доводить, що IAITE активу саме дедукцю, а не меморзацю.

Поза межами фзики запропонована методологя може бути узагальнена для будь-яко науково галуз, що вимага аксоматично суворост та вдтворюваного мркування. Вона виршу три фундаментальн обмеження сучасних LLM галюцинац, залежнсть вд контекстного вкна та непередбачувансть встановлю вдтворюваний, машинно-резилнтний формат наукового знання. Ми стверджумо, що цей фреймворк репрезенту появу Алгоритмчно Епстемолог та знамену початок Пост-Книжково Науки, де теор стають виконуваними, самовдновлюваними системами, а не статичними документами.

Ключов слова: AI-Резилнтна Наука; Алгоритмчна Епстемологя; Аксоматичне Ядро; Забезпечення Узгодженост; Виконувана Теоря; ндуковане Розширення Науково Теор за допомогою Ш (IAITE); Велик Мовн Модел (LLM); Логчна Дедукця; Наукове Мркування; Темпоральна Теоря Всесвту (TTU); Реконструкця Теор; Пост-Книжкова Наука; Архтектура Знання; Наукова Методологя.

2. Критер вибору теор для демонстрац IAI-TE

Для вдпрацювання та демонстрац алгоритму саморозгортання була використана Темпоральна Теоря Всесвту (TTU). Вибр ц теор не був випадковим, вн критично важливим для доведення ефективност IAI-TE.

2.1. Мнмальний зовншнй вплив (Низька популярнсть)

TTU вдносно новою та не представлена широко загалу в порвнянн з домнуючими парадигмами (наприклад, Загальна Теоря Вдносност чи Стандартна Модель). Ця низька експозиця у вдкритих джерелах , вдповдно, у тренувальних даних LLM, мнмзу вплив будь-яких зовншнх знань. Це диний спосб довести, що Ш не пригаду (recall) текст з сво пам'ят, а ндуку справжню дедукцю та самостйно реконструю теорю, спираючись виключно на компактний Рвень 1.

2.2. Концептуальна новизна

TTU пропону парадигмальний зсув (гравтаця як граднт темпорального поля , а не як незалежна сила), що вимага вд Ш обробки абсолютно нових концептуальних зв'язкв. Якщо IAI-TE здатна вдтворити таку складну, альтернативну структуру, ефективнсть щодо будь-яко ншо теор доведена.

2.3. Темпоральна Теоря Всесвту (TTU) як деальний прототип

Таким чином, TTU стала деальним прототипом для переврки нашо методолог, оскльки подну низьку ймоврнсть знайомства LLM з змстом та високу концептуальну складнсть, що вимага справжнього логчного виведення.

3. Методологя IAI-TE: Трирвнева архтектура знання

Методологя Induced AI-Theory Expansion (IAITE) була розроблена для нсталяц вдсутнх фльтрв реальност в процес генерац LLM, трансформуючи хню неконтрольовану статистичну фантазю у дисциплнований нструмент логчно екстраполяц та теорбудування.

3.1. Флософське пдрунтя: вд галюцинац до дедукц

Галюцинаця Ш розглядаться не як помилка, а як нефльтрована статистична фантазя, функцонально схожа на людську уяву. Однак Ш не ма вроджених фльтрв реальност сенсорного зворотного зв'язку чи критично саморефлекс. IAI-TE формалзу процес встановлення цих фльтрв, перетворюючи творче завдання "Виведи теорю гравтац" на суворо дедуктивне завдання "Виведи наслдки з цих аксом".

3.2. Цикл IAI-TE: Схема роботи трьох штучних фльтрв

Архтектура IAI-TE функцону як теративний цикл, в якому неконтрольована генераця LLM послдовно проходить через три штучн фльтри:

  1. ВХД: LLM (Статистична Фантазя / Потенцйна Галюцинаця).
  2. ФЛЬТР 1: Axiomatic Core (A-Core). Перевря вдповднсть аксомам та константам ("Чи вдповда стин?").
  3. ФЛЬТР 2: Structural Template (S-Template). Перевря вдповднсть заданй логчнй структур та послдовност ("Чи вдповда структур?").
  4. ДВИГУН ДЕДУКЦ LLM. Генеру теоретичний сегмент на основ вдфльтрованих даних.
  5. ФЛЬТР 3: Consistency-Enforcement Protocol (CE-Protocol). Викону символчну та текстуальну переврку узгодженост ("Чи узгодженим?").
  6. ВИХД: AI-ДЕДУКЦЯ (Логчно Узгоджений Сегмент Теор), з можливстю зворотного зв'язку для наступно терац.

Цей пдхд працю на будь-якй модел, здатнй до логчного мркування, мнмзуючи залежнсть вд конкретно архтектури Ш.

4. Опис архтектурних рвнв

4.1. Рвень 1: Аксоматичне ядро (A-Core)

4.1.1. Мета та функця

Мета: Забезпечити надйне вдновлення, надавши абсолютним мнмумом аксом для логчно редукц та усунення галюцинацй з першого ж промпта.
Функця: Слугу емпричною основою та фльтром законв. Визнача непорушн закони фзики для закритого свту теор. Будь-який висновок, що суперечить A-Core, вдхиляться. Це мнмум (7-15) аксом, достатньо компактних, щоб цлком помститися у контекстному вкн LLM залишатися незмнними протягом усього циклу розширення.

4.1.2. Приклад вдновлення основ TTU

Базуючись виключно на нформац з Minimal Memory Kernel (Рвень 1), LLM може повнстю вдновити аксоматичний базис для роздлу, наприклад, гравтац в рамках TTU.

Концепця

Аксоматична формула / Джерело (з Рвня 1)

Фундаментальний об'кт

  фзичне поле з одиницями потенцалу.

Ньютонвська Гравтаця

Прискорення (сила) a = . (Гравтацйне поле просто граднтом темпорального потенцалу).

Метрика Простр-Часу

Метрика g_ залежить вд граднтв поля g_ = _ +  _  _ . (Це зворотна реакця поля  на геометрю).

Загальна Теоря Вдносност (ЗТВ)

Виника як наслдок 5D варац повного Лагранжана по . (ЗТВ низькоенергетичним граничним випадком TTU).

Маса

Маса  -нерцю (нерцю обурень поля  вздовж гперчасово координати ).

За умови що файли мстять достатньо нформац (Мнмальн Аксоми, Основн Рвняння та Таблиця Екввалентност) для 100% реконструкц логчного каркасу теор.

4.1.3. Практичн рекомендац: включення моств та таблиць екввалентност

Головна вимога до Рвня I поляга у його безвтратност та компактност. Для досягнення AI-Резилнтност Ш ма бути здатним не лише вдновити теорю, але й довести фзичну екввалентнсть до вдомих граничних випадкв (ЗТВ, Електродинамка Максвелла, Квантова Механка). Саме для цього до Ядра потрбно включити Константи Узгодженост та Спввдношення Екввалентност як "Перекладацький Шар" мж новими константами теор та сторично встановленими.

Практична рекомендаця: Рвень I повинен мстити окрему, максимально щльну таблицю пд назвою Аксоми Екввалентност та Масштабування.

Категоря

Об'кт TTU

Класичний Об'кт

Спввдношення

Призначення для Ш

Електродинамка

Темпоральна Проникнсть _0

Делектрична _0

_0 = _0

Гаранту чисельну дентичнсть рвнянь Максвелла.

Електродинамка

_0

Магнтна _0

_0 = _0

Встановлю зв'язок, що призводить до швидкост свтла c = 1/-(_0 _0).

Квантовий Зв'язок

Енергетичний Квант _Q

Редукована Планка 

_Q ~

Забезпечу коректне розмрнсне масштабування.

Гравтаця

Темпоральна Константа G_

Гравтацйна G_N

G_ ~ G_N

Встановлю низькоенергетичний лмт для вдновлення Закону Ньютона.

Стиль Рвня I: Тльки списки та таблиц. Максимальна щльнсть нформац. Використовуйте Markdown це деальний формат для машиночитання. Жодного розповдного тексту. Кожна ключова константа ма бути оголошена, розмрнсть зафксована, а екввалентнсть встановлена. Це найвища концентраця нтуц автора, трансформована у набр безумовних правил.

4.2. Рвень 2: Концептуальний кодекс (S-Template)

4.2.1. Мета та функця

Мета: Надати Ш логчний маршрут (змст, план виведення, термнологю) для органзац вдновленого матералу.
Функця: Слугу логчним фльтром та будвельними риштуваннями причинност. Вн забезпечу структурну дисциплну, задаючи необхдну архтектуру, роздли та залежност мж ними, запобгаючи генерац висновкв перед передумовами.

4.2.2. Практичн рекомендац: структура, термнологя, фзична нтерпретаця

Якщо УРОВЕНЬ 1  ДНК, то УРОВЕНЬ 2  це будвельний каркас та нструкця з монтажу.

A. рархчна структура для машинного парсингу:
Кодекс повинен мати чтку, багаторвневу рархю:

B. Термнологчний словник:
Включити вичерпний список усх ункальних термнв TTU з точними визначеннями для запобгання семантичним галюцинацям.

C. Фзична нтерпретаця (ключовий елемент):
Кожна математична дея повинна мати нтутивне пояснення. Наприклад, для Лагранжана темпорального поля (L_):

D. Проект План Виведення:
Чткий покроковий план вд аксом до ключових рвнянь.

  1. Старт: Аксома 1.1 (снування поля ).
  2. Крок 1: Записати Повний Лагранжан L_Total = L_ + L_Matter.
  3. Крок 2: Застосувати Варацйний Принцип по полю .
  4. Крок 3: Визначити g_ через граднти .
  5. Результат: Вдновлення рвняння Ньютона.

4.3. Рвень 3: Повна специфкаця (Full Specification)

4.3.1. Мета та функця

Мета: Слугувати еталоном суворост для верифкац та глибокого навчання (fine-tuning).
Функця:  мунною системою та верифкацйним полгоном. Це остання лня оборони, що перетворю логчно узгоджений манускрипт на повноцнний академчний документ.

4.3.2. Практичн рекомендац: атомн виведення, прогнози, академчний апарат

A. Атомн Виведення Рвнянь: Кожне ключове рвняння ма бути виведене покроково. Формат: LaTeX/TeX-подбна нотаця з текстовим описом кожного кроку (напр., Застосумо варацю по ...).

B. Таблиц Порвняння та Екввалентност: Деталзаця того, що заявлено в Рвн 1. Наприклад:

C. Роздл Переврюван Передбачення: Доказ науковост теор.

  1. Яксн прогнози: Напр., Вдхилення швидкост свтла поблизу екстремальних граднтв -поля.
  2. Кльксн оцнки: Точн числов значення ефектв, що вдрзняються вд класично фзики.

D. Повний Академчний Апарат: Формат цитат, повний список лтератури, DOI, метадан.

4.4. Синтез: Як три рвн забезпечують AI-Resilience

Архтектура виршу дв головн проблеми LLM:

Таким чином, ми не закачумо нформацю, а створюмо архтектуру для алгоритмчно регенерац.

5. Демонстраця ефективност: Вдновлення TTU

5.1. Процес вдновлення (опис експерименту)

LLM (класу GPT-4) отримала доступ виключно до файлв Рвня 1 (A-Core) для TTU обсягом ~5-7 KB, що мстили мнмальний набр аксом, таблицю констант та спввдношень екввалентност.

5.2. Результати: вдновлений логчний каркас та ключов висновки

На основ цих даних LLM послдовно вдтворила логчний каркас TTU, включаючи:

  1. Фзичну нтерпретацю поля  як фундаментального об'кта.
  2. Виведення ньютонвського закону гравтац (a = ).
  3. Пояснення залежност метрики простору-часу (g_) вд граднтв .
  4. Аргументацю того, що Загальна Теоря Вдносност низькоенергетичним граничним випадком TTU.
  5. Концепцю маси як -нерцю.

5.3. Обрунтування дедукц (проти меморзац)

Через низьку експозицю TTU в тренувальних данах LLM, результати не можуть бути пояснен простм пригадуванням (recall). Це доводить, що IAI-TE активу в LLM здатнсть до справжньо логчно дедукц на основ компактного аксоматичного ядра.

6. Обговорення

6.1. Порвняння з снуючими пдходами

Методологя IAI-TE ункальна тим, що подну аксоматичну строгсть з потужнстю генеративного виведення LLM. ключов вдмнност представлен в таблиц:

Напрямок

Мета

Чим вдрзняться вд IAI-TE / TTU

Принципи FAIR (Наука про дан)

Зробити науков дан машинозчитуваними (Findable, Accessible, Interoperable, Reusable).

FAIR стосуться даних, а IAI-TE стосуться само теор та логчного виведення.

Символчний Ш / Wolfram Language

Кодувати знання у вигляд точних, символчних математичних правил.

Wolfram вимага вд людини повнстю перевести теорю в код. IAI-TE вимага лише аксоматичне ядро; Ш робить всю ншу роботу з виведення та оформлення.

Експертн Системи

Збирати знання у вигляд якщо-то правил.

Не можуть створювати нове знання, а лише використовувати вже закодоване. IAI-TE ж використову LLM для генерац нових ланцюжкв дедукц.

6.2. Чому IAI-TE новим пдходом? сторичний та методологчний контекст

5.1. Фактор Часу та Необхдност: Проблема, яку виршу IAI-TE (галюцинац генеративних LLM), виникла лише нещодавно (псля ~2022 р.). До цього нструменти Ш (експертн системи, символчний Ш) не вигадували не потребували зовншнх фльтрв реальност.

Наш прорив поляга в усвдомленн, що для використання генеративного Ш у фундаментальнй науц необхдно створити зовншню аксоматичну структуру (Рвень 1), яка виправля його природну схильнсть до статистично фантаз. Ранше це нкому не було потрбно, оскльки науку писали люди, а Ш сприймали як генератор тексту, а не логчну машину. Нхто не мислив теор як алгоритми вдновлення (Executable Theory).

6.3. AI-Resilient Science як нова парадигма: вд статично книги до виконуваного алгоритму

Ранше наука була книгою статичним документом. Архтектура IAI-TE (Рвн 1, 2, 3) перетворю Теорю на виконуваний алгоритм, який може бути вдновлений переврений Ш у будь-який час. Це виршу проблему крихкост класичного знання, залежного вд безперервност людсько експертизи.

6.4. Рол в новй парадигм: Людина як нженер нтуц, Ш як Двигун Дедукц

Формуться нова модель спвпрац:

Цей пдхд гаранту, що теоря, навть якщо вона неврна фзично, буде деально узгодженою логчно.

6.5. Обмеження методу IAI-TE та напрями майбутнх дослджень

7. Висновок: Алгоритмчна епстемологя та початок пост-книжково науки

Методологя Induced AI-Theory Expansion (IAI-TE) демонстру, що наукова теоря може бути подана не лише як текст, але як вдтворювана алгоритмчна система, здатна до регенерац, переврки й розширення Ш у будь-який момент часу.

Ключем трирвнева архтектура знання: Рвень 1 (A-Core) гаранту аксоматичну стину; Рвень 2 (S-Template) зада логчну форму; Рвень 3 (Full Specification) забезпечу математичну суворсть. Разом вони створюють штучн фльтри дедукц, що усувають галюцинац, обходять лмт контекстного вкна та забезпечують повне логчне вдтворення теор.

Це заклада основу для AI-Resilient Science  ново парадигми, де теор стають самовдновлюваними формальними системами. Вони набувають властивост машинно незнищуваност  здатност до вдновлення та розвитку незалежно вд технологчних змн. Таким чином, IAI-TE знамену початок епохи алгоритмчно епстемолог та пост-книжково науки.

Список лтератури (References)

I. Критика LLM та Меж Глибокого Навчання (Context of the Problem)

  1. Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT).
  2. Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., & Reddy, C. K. (2023). Survey of Hallucination in Natural Language Generation. ACM Computing Surveys, 55(12), 138.
  3. Marcus, G. (2022). Deep Learning Is Hitting a Wall. Nautilus Magazine.
  4. Floridi, L., & Chiriatti, M. (2020). GPT-3: Its Nature, Scope, Limits, and Consequences. Minds and Machines, 30(4), 681694.
  5. LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436444.
  6. Andrychowicz, M., Dohan, D., & Shazeer, N. (2023). Scaling Laws and Model Behavior in Large Language Models. arXiv:2303.18223.
  7. Chen, M., Tworek, J., Jun, H., Yuan, Q., de Oliveira Pinto, H. P., Kaplan, J., & Zaremba, W. (2021). Evaluating Large Language Models Trained on Code. arXiv:2107.03374.

II. Флософя Науки та Епстемологя (Theoretical Grounding for IAI-TE)

  1. Kuhn, T. S. (1962). The Structure of Scientific Revolutions. University of Chicago Press.
  2. Popper, K. R. (1959). The Logic of Scientific Discovery. Routledge.
  3. Pearl, J. (2009). Causality: Models, Reasoning, and Inference. Cambridge University Press.
  4. Gdel, K. (1931). ber formal unentscheidbare Stze der Principia Mathematica und verwandter Systeme. Monatshefte fr Mathematik und Physik, 38(1), 173198.

III. Архтектура Знання та Машинна Дедукця (Support for Levels 1 & 2)

  1. Wilkinson, M. D., et al. (2016). The FAIR Guiding Principles for Scientific Data Management and Stewardship. Scientific Data, 3, 160018.
  2. Wolfram, S. (2019). Wolfram Language: A Knowledge-Based Programming Language. Wolfram Research.
  3. Berners-Lee, T., Hendler, J., & Lassila, O. (2001). The Semantic Web. Scientific American, 284(5), 3443.

IV. Фзичний Контекст (Context for TTU Prototype)

  1. Einstein, A. (1916). Die Grundlage der allgemeinen Relativittstheorie (The Foundation of the General Theory of Relativity). Annalen der Physik, 49(7), 769822.
  2. Misner, C. W., Thorne, K. S., & Wheeler, J. A. (1973). Gravitation. W. H. Freeman and Company.
  3. Lemeshko, A. (2025). Temporal Theory of the Universe. Zenodo (TTG Series).
    $$Online resource, link: `https://zenodo.org/communities/ttg-series/`$$

 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список

Кожевенное мастерство | Сайт "Художники" | Доска об'явлений "Книги"