{
"code": "```python\n def process_data(data):\n if not isinstance(data, list):\n raise TypeError(\"Ожидается список данных.\")\n return [item * 2 for item in data if isinstance(item, int)]\n\n# Пример использования\nsample_data = [1, 2, 'a', 3]\nprint(process_data(sample_data)) # Ожидаемый вывод: [2, 4, 6]\n
",
"usage_examples": [
{
"input": "[1, 2, 'a', 3]",
"expected_output": "[2, 4, 6]"
},
{
"input": "[5, 10, 15]",
"expected_output": "[10, 20, 30]"
}
],
"error_handling": "Функция вызывает TypeError, если входные данные не являются списком.",
"suggested_improvements": [
"Добавить возможность обработки других типов данных, например, строк.",
"Рассмотреть обработку вложенных списков в будущих версиях функции."
]
}
что за ллмку вы юзаете, какой-нибудь out of the box чатгпт?
так там сколько промты не пиши, его часто клинит так что багов избежать невозможно.
это фиксится не промптами а нормальным обратным обучением, что собсно в промышленном подходе и делают.
подход ни о чем, я просто видел проекты где конкретно на джейсоне учат модельку на сотнях тасков, исправляя косяки ллмки, а тут в промте "попросить" ну это ни о чем.