Проблематика использования ЛЛМ (языковых моделей) в разработке
Ни для кого не секрет, что в последнее время ChatGPT, LLAMA и прочие модели стали буквально интеллектуальным ядром для многих бизнесов и программистов. К бизнесу вопросов нет - дополнительный заработок и оптимизация расходов всегда в почёте, но в случае с программистами возникает вопрос - зачем ты нужен, если всё твоё искусство это копипаст ранее со StackOverflow, а ныне с chatgpt.com. Данное наплевательское отношение порождает несколько серьёзных проблем, а именно утечка конфиденциальных данных и глубинные ошибки кода. Что это такое и как использовать оптимально языковые модели программисту читай далее.
Проблемы с конфиденциальностью
Думаю ни для кого не секрет, то несмотря на уверения openai (разработчики chatgpt) вся ваша история общения с моделью сохраняется. И тут уже не так важно, сохраняется ли информация напрямую, или используется для обучения в рамках подхода "чёрного ящика". Вероятность того, что ваши личные или корпоративные наработки станут пускай не достоянием общественности, но кирпичиком в фундаменте GPT5 и последующих моделей. Это лишь первая сторона проблем с конфиденциальностью. Давайте теперь посмотрим на ситуацию на примере LLAMA.
Так как LLAMA является свободно распространяемой моделью, то поднять её на своих серверах становится не слишком сложно. Вопрос только по карману ли вам это. Итак, имея множество сервисов провайдеров LLAMA 3.1, например, есть ли гарантия, что они не собирают информацию о вашем общении, что они не собирают информацию о вас? Это, как говорится, материал для домашнего изучения. Давайте же теперь поговорим о глубинных ошибках в коде...
Глубинный код
Господа, что значит быть пиздаболом? Как по мне, это убедительно, без толики сомнения и сожаления пиздеть. Именно так языковые модели и выдают нам результат: без эмоциональной окраски, без осмысления и сожаления. Работая сегодня над одним из своих проектов я получил порядка полутора тысяч строк кода, которые формально не вызывали ошибок. Они просто работали не так, как мне требуется. Ясное дело я все эти ошибки нашёл и ЛИКВИДИРОВАЛ. Но задумайтесь, если учесть повсеместное использование генеративных моделей о сколько нам ошибок чудных готовит просвещенья дух? Я думаю духуя. Но не стоит циклиться на негативе, самым стойким из читателей я поведаю главную фишку работы с языковыми моделями
Как заставить модель работать на вас
Мне всегда казалось глупым отдавать интеллектуальную работу на откуп алгоритмам. Человек отличается от обезъян своим интеллектом, так не стоит же самих себя сводить до уровня обезъян, верно? Главной особенностью языковых моделей является из дикая "насмотренность" и общая осведомлённость. Раньше, порядка 80% времени я тратил на изыскания документации в интернете, поиск фиксов ошибок и Бог знает чего ещё. Использование ллм позволяет максимально быстро ознакомиться на с предметной областью на примерах и быстро погрузиться в технологию. Бывало ли у вас такое, что вы ищете то, чему не знаете правильного названия. Как сформулировать запрос в интернет из чего-то абстрактного в вашей голове? Спросите у ллм и она вам скажет, что вы ищете, а дальше уже найдётся всё и без неё.
Это не хейт в сторону технологии, просто альтернативный взгляд