Ангорский Андрей Андреевич
Концептуальные проблемы развития современных систем И И - их решение и будущее искусственного интеллекта

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:
Школа кожевенного мастерства: сумки, ремни своими руками Типография Новый формат: Издать свою книгу
 Ваша оценка:
  • Аннотация:
    О проблемах современных систем ИИ, концептуальных ограничениях, регулирующих развитие нейросетей и будущих направлениях развития ИИ.

  В основе работы практически всех современных систем искусственного интеллекта лежат концепции, которые превращаются в нашем обществе в целые кластеры мифов и легенд. Это при том, что пока современные системы ИИ основаны на достаточно простой математической статистике.
  
  В основе всех современных систем машинного обучения лежит идея взвешивания факторов.
  
  A₁×X₁ + A₂×X₂ + … + Aₙ×Xₙ — базовая формула нейронной сети. Каждый “нейрон” сети делает следующее: умножает входы на веса (Ai), суммирует, и применяет функцию активации — некую математическую нелинейность, которая позволяет выходу быть не просто линейной комбинацией. Из миллионов таких операций рождается способность модели “распознавать” паттерны, “понимать” контекст и делать прогнозы.
  
  Что же следует из такой довольно простой архитектуры, применяющейся в настоящее время в системах ИИ?
  
  Её простота, основанная на "весовых вкладах", может вести к проблемам с саморазвитием. Практически всегда — к деградации.
  
  Полностью автономное самообучение ИИ в открытой среде — почти гарантированный путь к деградации. Причина — в риске “перекоса весов” и в том, что Интернет — это крайне шумная, противоречивая, динамичная среда. Без тщательно отобранных данных, контрольных тестов и обратной связи от человека модель начнёт усиливать случайные корреляции, смещаться в сторону частых, но ложных шаблонов. Проще говоря, она “сходит с ума” статистически, а не эмоционально.
  
  Современные модели, вроде GPT или других крупных трансформеров, не обучаются в реальном времени. Они фиксированы после тренировки (замороженные веса), а “обновления” происходят только при новом цикле обучения, который контролируют люди. Это сознательная мера — чтобы ИИ не дрейфовал в неведомые направления.
  
  Есть направление, которое пытается обойти эту проблему — continual learning (непрерывное обучение). Оно ищет способы позволить модели учиться новому, не забывая старое и не искажаясь. Но пока эта задача решается фрагментарно: мозг человека делает это естественно, а машины — нет.
  
  ИТАК:
  
  — ИИ основан на взвешивании факторов;
  
  — без ограничений на “саморазвитие” он склонен к статистическому хаосу;
  
  — именно поэтому развитие ИИ сейчас идёт не через “свободное обучение в дикой природе”, а через циклы контролируемого обучения и валидации.
  
  Если обобщить, то главный вопрос современной архитектуры ИИ звучит так: как сделать систему, способную обучаться постоянно, но при этом не теряющую когерентность и не сходящую в корреляционный бред?
  
  И вот здесь есть следующий интересный слой — это то, как ИИ мог бы “понимать” смысл, а не просто пересчитывать вероятности. Это уже не про веса, а про архитектуры внимания, память, контекст и семантическое согласование. Именно там начинаются настоящие загадки когнитивной инженерии.
  
  
  
  
  
  

 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список

Кожевенное мастерство | Сайт "Художники" | Доска об'явлений "Книги"