Мысли насчет ChatGPT

Опубликовано 2023-02-16 15:38:30

Популяность вокруг нейронных сетей растет с каждым днем. Не так давно я смотрел как люди играются с ней, задают вопросы, задачи и результат, прямо скажем, впечатляет. Пару дней назад я посмотрел вот это видео. Начиная примерно с 26 минуты начинается разговор про ChatGPT. Обсуждают много всего интересного.

Конечно, технология впечатляет, особенно, если смотреть на нее как на концепт. Технология работает и почти каждый мог в этом убедиться. Сколько времени может понадобится до production-ready решения. Вообще говоря само понятие production-ready решения здесь звучит как-то странно. Как эту технологию протестировать? Процесс тестирования зависит от контекста применения. Можете сходу назвать технологию тестирование которой зависит от контекста. Ну допустим можно выбрать ряд областей, где можно провести тестирование на глаз и область будет относительно безобидной. Имею в виду то, что ошибки, которые допустит технология будет не критичными. Например тот же поиск, создание текстов по теме, поиск изображений по описанию и т.д. Это выглядит очень перспективно. Теперь возьмем написание программного кода. Если вы пишете программу для себя - ок, цена ошибки мала, но можно ли использовать код, который сгенерила модель и доверять ему. Скорее всего нет. Я думаю первое время программист может рассчитывать на то, что модель сгенерит код, потом программист его прочтет, оценит его на читаемость и понимаемость, возможно добавит более строгие проверки и напишет интеграционные тесты. После этого отправит на ревью, чтобы другие программисты посмотрели на код и дали добро. ChatGPT никого не заменит, но кажется, что есть большой потенциал иметь некоего помошника для выполнения рутины: поиска ошибок, написания тестов, код-ревью и т.д. Можно также прикинуть и обратный вариант, когда модель будет наравне с остальными ревьюить код и станет одним из шагов CI/CD pipeline. Крайне любопытно будет наблюдать за тем, когда модель найдет недочеты, которые пропустили люди.

Еще больше интересен следующий этап, когда люди начнут доверять результатам, которые модель генерит. Представим момент, что модель выдала результат, его использовали и он привел к неблагополучным результатам. Кто будет нести ответственность за этот результат и как продолжать эксплуатацию такой системы? Это знаете ли как с дилеммой>, или короче "можно ли быть несвободным и отвечать за свои поступки?" ну, мол, не я же решения принимал. Получается, что если отвечает человек, то будет ли он использовать систему, которой не доверяет.

В интересное время живем.