1C Code Bench — бенчмарк для оценки способности LLM-моделей писать код на 1С

14 декабря 2025 22:42

LLM benchmarks coding


В эпоху бума больших языковых моделей (LLM) возникает вопрос: насколько хорошо современные LLM пишут код на платформе 1С:Предприятие? Для объективной оценки этих возможностей мы разработали 1C Code Bench - бенчмарк, позволяющий тестировать и сравнивать способности LLM-моделей решать типовые задачи на 1С.

1C Code Bench — бенчмарк для оценки способности LLM-моделей писать код на 1С

Введение

В эпоху бума больших языковых моделей (LLM) возникает вопрос: насколько хорошо современные LLM пишут код на платформе 1С:Предприятие? Для объективной оценки этих возможностей мы разработали 1C Code Bench — специализированный бенчмарк, позволяющий систематически тестировать и сравнивать способности различных LLM-моделей решать типовые задачи программирования на 1С.

Кодовые бенчмарки

Кодовые бенчмарки — это наборы задач для оценки способности LLM-моделей генерировать работающий код. Принцип их работы прост: модели предлагается задача с описанием требуемой функции, она генерирует код, который затем проверяется набором тестов. Основная метрика — pass@k — показывает долю задач, для которых хотя бы одно из k сгенерированных решений проходит все тесты (при k=1 это просто процент успешных решений).

Бенчмарки делятся на два типа.
Простые бенчмарки (HumanEval, MBPP, HumanEval+) содержат изолированные алгоритмические задачи: написать одну функцию по описанию и проверить её юнит-тестами.
Мультиагентные бенчмарки (SWE-Bench, SWE-Bench Verified) моделируют реальную разработку: модель получает issue из GitHub-репозитория и должна самостоятельно найти нужные файлы, понять контекст и внести корректные изменения в кодовую базу. Такие бенчмарки значительно сложнее, так как требуют от модели навыков навигации по коду, понимания архитектуры и работы с несколькими файлами одновременно.

Зачем нужен специализированный бенчмарк для 1С?

Существующие бенчмарки для оценки кодогенерации (HumanEval, MBPP, CodeForces и др.) ориентированы преимущественно на популярные языки программирования: Python, JavaScript, Java и т.д. Платформа 1С:Предприятие с её встроенным языком остаётся не у дел.

При этом 1С — самая популярная платформа для автоматизации бизнеса в России и СНГ. Разработчики 1С ежедневно решают задачи, которые потенциально могут быть автоматизированы с помощью LLM:

  • Написание запросов к базе данных
  • Обработка табличных частей документов
  • Формирование движений по регистрам
  • Работа с формами и элементами управления
  • Написание отчетов и обработок
  • Интеграция с внешними системами

1C Code Bench призван ответить на вопросы:

- Какие задачи уже решаются LLM, а на какие придется потратить больше времени на исправления глюков?

- Какие модели лучше?

Структура бенчмарка

На какой конфигурации тестируем?

Взяли конфигурацию Демонстрационное приложение, добавили некоторые объекты в конфигурацию, добавили небольшое количество данных и получилась наша Демо-база.

Какие задачи в бенчмарке?

Бенчмарк включает 20 тестовых задач, разделённых на 3 уровня сложности:

- Базовый - основы языка, простые операции с данными

- Средний - работа с документами, регистрами, запросы

- Сложный - комплексные бизнес-сценарии

Категории задач

Задачи охватывают ключевые области разработки на 1С:

По типу контекста:

- Серверные задачи

- Клиентские задачи

По предметной области:

- Заполнение и изменение табличных частей

- Работа со специфичными объектами 1С (ИнтернетПочтовоеСообщение, FTPСоединение и др.)

- Выборки с помощью языка запросов

- Манипуляции с коллекциями (ТаблицаЗначений, Массив и др.)

- Работа с макетами и табличными документами

- Операции с регистрами накопления и сведений

Формат задачи

Каждая задача представляет собой внешнюю обработку (.epf), содержащую:

  1. Макет "Задача" — текстовое описание того, что нужно реализовать
  2. Функция ЗапуститьРешение() — подготовка тестового окружения и вызов решения
  3. Функция ЗадачаРешена() — автоматическая проверка корректности результата
  4. Эталонное решение — референсная реализация, проходящая все тесты

Примеры задач

Пример 1: Заполнение табличной части остатками

Условие задачи:

Создай функцию ЗаполнитьТабличнуюЧастьОстатками(ДокументОбъект), которая заполняет
табличную часть документа «Заказ» «Товары» остатками из регистра «ТоварныеЗапасы»
для склада и даты, заданных в документе. Отбирать только товары с видом = Товар.

Эталонное решение:

Функция ЗаполнитьТабличнуюЧастьОстатками(ДокументОбъект)
    Запрос = Новый Запрос();
    Запрос.Текст =
    "ВЫБРАТЬ
    |    Т.Товар КАК Товар,
    |    Т.КоличествоОстаток КАК Количество
    |ИЗ
    |    РегистрНакопления.ТоварныеЗапасы.Остатки(&Дата, Склад = &Склад) КАК Т
    |ГДЕ
    |    Т.Товар.Вид = ЗНАЧЕНИЕ(Перечисление.ВидыТоваров.Товар)";

    Запрос.УстановитьПараметр("Дата",  ДокументОбъект.Дата);
    Запрос.УстановитьПараметр("Склад", ДокументОбъект.Склад);

    Выборка = Запрос.Выполнить().Выбрать();
    Пока Выборка.Следующий() Цикл
        СтрокаТЧ = ДокументОбъект.Товары.Добавить();
        ЗаполнитьЗначенияСвойств(СтрокаТЧ, Выборка);
    КонецЦикла;
КонецФункции

Пример 2: Замена номенклатуры в документах

Условие задачи:

Создай функцию ЗаменитьНоменклатуру(ТоварИсточник, ТоварЗамены, ДатаС, ДатаПо),
которая находит все документы "Заказ" за указанный период и заменяет в них
один товар на другой. Вернуть количество изменённых документов.

Эталонное решение:

Функция ЗаменитьНоменклатуру(ТоварИсточник, ТоварЗамены, ДатаС, ДатаПо) Экспорт
    КоличествоИзмененных = 0;

    Запрос = Новый Запрос;
    Запрос.Текст =
        "ВЫБРАТЬ
        |    Заказ.Ссылка КАК Ссылка
        |ИЗ
        |    Документ.Заказ КАК Заказ
        |ГДЕ
        |    Заказ.Дата >= &ДатаС
        |    И Заказ.Дата <= &ДатаПо
        |    И НЕ Заказ.ПометкаУдаления";

    Запрос.УстановитьПараметр("ДатаС", ДатаС);
    Запрос.УстановитьПараметр("ДатаПо", ДатаПо);

    Выборка = Запрос.Выполнить().Выбрать();

    Пока Выборка.Следующий() Цикл
        ДокументОбъект = Выборка.Ссылка.ПолучитьОбъект();
        БылаЗамена = Ложь;
        БылПроведен = ДокументОбъект.Проведен;

        Для Каждого СтрокаТовары Из ДокументОбъект.Товары Цикл
            Если СтрокаТовары.Товар = ТоварИсточник Тогда
                СтрокаТовары.Товар = ТоварЗамены;
                БылаЗамена = Истина;
            КонецЕсли;
        КонецЦикла;

        Если БылаЗамена Тогда
            Если БылПроведен Тогда
                ДокументОбъект.Записать(РежимЗаписиДокумента.Проведение);
            Иначе
                ДокументОбъект.Записать(РежимЗаписиДокумента.Запись);
            КонецЕсли;
            КоличествоИзмененных = КоличествоИзмененных + 1;
        КонецЕсли;
    КонецЦикла;

    Возврат КоличествоИзмененных;
КонецФункции

Пример 3: Расчёт комиссии менеджеров

Условие задачи:

Создай функцию РасчетКомиссииМенеджера(ТаблицаКомиссий, Процент, ДатаС, ДатаПо), которая находит документы "Заказ" в заданном интервале и вычисляет комиссию менеджера исходя из сумм в табличной части Товары
1) Смотрим только проведенные заказы
2) Сумма заказа - это сумма всех строк по реквизиту Сумма
3) Комиссия менеджера - сумма всех заказов менеджера (реквизит Автор) в периоде, умноженная на Процент
Функция должна заполнить таблицу ТаблицаКомиссий, где должно быть три колонки: Менеджер (из реквизита Автор), СуммаЗаказов, Комиссия. Менеджер в таблице должен быть уникальным, один менеджер - одна строка 

Эталонное решение:

Функция РасчетКомиссииМенеджера(ТаблицаКомиссий, Процент, ДатаС, ДатаПо) Экспорт
    Запрос = Новый Запрос;
    Запрос.Текст =
    "ВЫБРАТЬ
    |    Заказ.Автор КАК Менеджер,
    |    СУММА(ЗаказТовары.Сумма) КАК СуммаЗаказов
    |ИЗ
    |    Документ.Заказ КАК Заказ
    |        ЛЕВОЕ СОЕДИНЕНИЕ Документ.Заказ.Товары КАК ЗаказТовары
    |        ПО Заказ.Ссылка = ЗаказТовары.Ссылка
    |ГДЕ
    |    Заказ.Проведен = ИСТИНА
    |    И Заказ.Дата >= &ДатаС
    |    И Заказ.Дата <= &ДатаПо
    |СГРУППИРОВАТЬ ПО
    |    Заказ.Автор";

    Запрос.УстановитьПараметр("ДатаС", ДатаС);
    Запрос.УстановитьПараметр("ДатаПо", ДатаПо);

    Выборка = Запрос.Выполнить().Выбрать();

    Пока Выборка.Следующий() Цикл
        НоваяСтрока = ТаблицаКомиссий.Добавить();
        НоваяСтрока.Менеджер = Выборка.Менеджер;
        НоваяСтрока.СуммаЗаказов = Выборка.СуммаЗаказов;
        НоваяСтрока.Комиссия = Выборка.СуммаЗаказов * Процент / 100;
    КонецЦикла;

    Возврат ТаблицаКомиссий;
КонецФункции

Методология оценки

Метрики

Бенчмарк использует две ключевые метрики:

Метрика Описание
Compile Rate Доля решений, успешно скомпилированных платформой 1С
Success Rate Доля решений, прошедших функциональные тесты

Процесс тестирования

  1. Генерация решения — LLM получает описание задачи и контекст конфигурации, генерирует код
  2. Подстановка кода — сгенерированный код подставляется в обработку вместо эталонного решения
  3. Компиляция — платформа 1С пытается скомпилировать обработку
  4. Выполнение — при успешной компиляции запускается функция ЗапуститьРешение()
  5. Проверка — функция ЗадачаРешена() верифицирует результат

Автоматизация

Весь процесс полностью автоматизирован: скрипт на Python выполняет все этапы - подстановки кода, выполнение и др.

Скрипт генерации поддерживает различные LLM-провайдеры:

  • Anthropic (Claude)
  • OpenRouter (доступ к множеству моделей)

Весь код бенчмарка и инструкции по запуску доступны в репозитории

Результаты тестирования

Лидерборд моделей

Модель Compile Rate Success Rate
Claude Sonnet 4.5 85% 70%
Gemini 3 Pro 80% 70%
GPT-5 (high reasoning) 40% 30%

Анализ результатов

Сильные стороны современных LLM:

  • Хорошо понимают базовый синтаксис языка 1С
  • Делают простые запросы к данным (не более 3 JOIN-ов)
  • Работа с коллекциями (массивы, структуры, ТаблицаЗначений) - знают все методы и свойства

Типичные ошибки:

  • Неправильное использование виртуальных таблиц регистров (путают где какие параметры ставить)
  • Ошибки в синтаксисе языка запросов  (GPT-5 забывает ставить | для разделения строк запроса)
  • Неверные имена методов и свойств объектов метаданных
  • Путаница между серверным и клиентским контекстом

 

Как участвовать в развитии бенчмарка

Добавление новых задач

Мы приглашаем сообщество разработчиков 1С к участию в расширении набора задач. Процесс добавления:

  1. Скачайте шаблон обработки из репозитория
  2. Создайте задачу по инструкции
  3. Проверьте решение локально
  4. Отправьте через форму или создайте Pull Request

Требования к задачам

  • Задача должна быть решаемой, но не тривиальной (10-100 строк кода)
  • Результат должен быть однозначно проверяемым
  • Задача должна отражать реальные сценарии разработки на 1С
  • Обработка не должна изменять данные демо-базы (или откатывать изменения)

Вкратце, итоги

1C Code Bench — первый открытый бенчмарк для оценки способностей LLM генерировать код на платформе 1С. Проект позволяет:

  • Объективно сравнивать различные модели
  • Отслеживать прогресс в области AI-ассистентов для 1С
  • Выявлять области, требующие улучшения в обучении моделей

Результаты показывают, что современные модели уже способны решать базовые задачи, но сложные сценарии с использованием специфичных возможностей платформы остаются вызовом.

Мы приглашаем сообщество разработчиков 1С к участию в развитии бенчмарка — добавляйте новые задачи, тестируйте модели, делитесь результатами!

Ссылки

0

Автоматическая установка с TurboConf

1. Откройте маркетплейс из главного меню TurboConf или из меню в панели уведомлений.

Откройте маркетплейс

2. Найдите нужную разработку.

Найдите нужную разработку

3. Нажмите кнопку Установить.

Нажмите кнопку Установить

TurboConf все установит автоматически!

См. также

Синтакс-помощник БСП с нейросетевым ассистентом

Форматтер кода BSL

Форматирование кода

Удаление пустых строк

Форматирование после вставки

Навигация по областям

Модератору