{
"code": "```python\n def process_data(data):\n if not isinstance(data, list):\n raise TypeError(\"Ожидается список данных.\")\n return [item * 2 for item in data if isinstance(item, int)]\n\n# Пример использования\nsample_data = [1, 2, 'a', 3]\nprint(process_data(sample_data)) # Ожидаемый вывод: [2, 4, 6]\n
",
"usage_examples": [
{
"input": "[1, 2, 'a', 3]",
"expected_output": "[2, 4, 6]"
},
{
"input": "[5, 10, 15]",
"expected_output": "[10, 20, 30]"
}
],
"error_handling": "Функция вызывает TypeError, если входные данные не являются списком.",
"suggested_improvements": [
"Добавить возможность обработки других типов данных, например, строк.",
"Рассмотреть обработку вложенных списков в будущих версиях функции."
]
}
Если Вы на эту должность рассматривали джуна, то вполне возможно, что ллм и поможет
ИИ конечно круто помогает с рутиной, но все же не может заменять креатив и интуицию, когда задачи нестандартные. Не говоря уже о том, что он не может принимать моральные решения, да и за ответственность всё равно отвечает человек.
что за ллмку вы юзаете, какой-нибудь out of the box чатгпт?
так там сколько промты не пиши, его часто клинит так что багов избежать невозможно.
это фиксится не промптами а нормальным обратным обучением, что собсно в промышленном подходе и делают.
подход ни о чем, я просто видел проекты где конкретно на джейсоне учат модельку на сотнях тасков, исправляя косяки ллмки, а тут в промте "попросить" ну это ни о чем.
Я поделился опытом нашей команды, как мы оптимизировали множество нудных процессов. Конечно мы раскрыли не весь наш подход (это уже тема для отдельной статьи). Но главное, я хотел отразить следующее: правильно структурированный запрос может сэкономить кучу времени, не создавая лишние проблемы.
Что то мне пожсказывает что не вся правда тут. Много разрабов пашет с чатгпт и работа часто не быстрее идёт. Чатгпт не панацея и его код приходится просматривать и фиксить. При больших объемах вообще теряется контроль над кодом. Приходится лопатить "чужой" код. Тесты гпт тоже часто пишет хитро, так что бы его же код их и проходил, но чуть влево или вправо и все, тесты валятся. Промпт с указанием пичать тесты сразу влияет на сам код. Короче проблем не мало. Инструмент хороший, но хорошего, опытного хоть сколько то разраба пока не заменит.
Согласен) Chat GPT - это не замена программистам на все 100 процентов. Но большинство рутинных задач в коде можно перебросить на него. Тут важно то, как обучена модель, куда посылаются промты и само качество этих промтов. Мы также сталкивались с плохим кодом от LLM, поэтому настроили работу с ним под себя
Отличный инструмент лопатить однотипное. Или найти ошибку которую заебался искать сам.