Re[3]: CODEX (OpenAI - презентация) - что там про 2027 говор
От: Артём Австралия жж
Дата: 18.05.25 01:09
Оценка:
Здравствуйте, bnk, Вы писали:

bnk>Я пользую в основном VS Code (с copilot, gpt 4.1). Это лучше чем cursor (IMHO).

bnk>Думаю что текущий уровень — это такой продвинутый автокомплит или редактирование джуном, когда можно давать небольшие задания,
bnk>реализация которых у меня самого заняла бы сильно больше времени, в силу того что надо смотреть какие в библиотеках параметры,
bnk>куда их подставлять ну и прочее, в общем, читать документацию, несмотря на то задача в целом тривиальна

Такой сценарий нам продемонстрировал коллега (из поглощённого стартапа). Добавил файл разметки с описанием API в контекст клода в курсоре, и путём нескольких попыток таки кцрсор сделал изменения и начал PR.
Что я хочу тут сказать, слабые стороны позиции "куда их подставлять ну и прочее, в общем, читать документацию". Документации может не быть. Документация может быть ошибочной- и в процессе понимания, вызываешь BA или архитекта и говоришь "так оно работать не будет". Даже если документация 100% валидная- автозамену, авто complete в ide никто не отменял, так что разница в скорости быстропечатальщика на уровне загрузки мозжечка, и LLM в процессе 3-4 итераций, некритическая. Потратишь ты 5 минут (опытный промптовод) или 10 минут (орытный копипастер) и пойдё7ь пить чай на 50 минут- выхлоп одинаковый.

bnk>В видосике речь о том что ты показываешь этому агенту на репозиторий GitHub и даешь задание (в примере был баг репорт в diff)

bnk>Он сам выявляет что нужно сделать (какие файлы поменять и как), и делает, тестирует, в результате получаешь готовый PR.
Да да, все LLM генерят пошаговый ход размышлений.

bnk>То что контекст все еще недостаточен для обработки всего проекта за раз обходится так же,

Ты понимаешь, что это- натягивание совы на глобус? Если LLM может делать лишь обязанности тупейшего из колировщиков, и для этого нужно сощдать ему идеальные тепличные условия и иметь навыки работы с LLM на уровне продвинутого промптовода, то это как троллейбус из хлебушка?

bnk>как это делаем мы — агент натренерован находить зависимости.


Но, что я хочу добавить. Другие мои коллеги разыграли сценку "сбор требований с заказчика в отсутствие органического BA" на хакафоне, и вот там суррогатный BA из claude впечатлил. Наверное, так же как впечатляет не-программистов генерацией нерабочего кода.


PS моя цель- задушить собственный bias против LLM и научиться использовать его продуктивно, для повышения собственной и подчинённых продуктивности в условиях голода на штатные головы на проекте, когда нанять нельзя, но работу работать надо в почти докризисных объёмах. Покрытие тестами- это важная и скучная часть, которая отжирает времени сравнимо с затратами на имплементацию, и при этом неважно качество кода самого теста.
Отредактировано 18.05.2025 1:20 Артём . Предыдущая версия .
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.