Я под медицину тут как-то упоминал
HuatuoGPT. Мне нравится принцип по которому они модель тренили, хотя я бы чуть-чуть по-другому сделал, наверное
И что тоже очень ценно (
@Patt 100% оценит тоже) — это вот этот
датасетЭто взяли с тестов/экзаменов сложные вопросы из реального мира. А ответы — это проверенные медиками ответы. Т.е. ответ на вопрос — это истина. Проверенные, подтвержденные диагнозы для вот этих проблем.
По такому же принципу этот датасет можно точно также наполнять, особенно если у Patt (или у кого-то еще) есть доступ к чему-то похожему: база проблем и база проверенных ответов.
Huatuo — это просто Llama-instruct учили «думать» (chain-of-thought) прежде чем выдавать ответ. Соответственно, можно брать другую LLM (не обязательно лламу), файнтюнить вообще по-другому, например разцензуренными промптами и ответами ChatGPT (ибо это медицина и там может быть «кровь», «кишки», «анус» и прочее на что бедный зацензуренный ChatGPT может сказать «я не могу, это плохие слова. Давай попробуем еще раз»). Короче, суть в том что изворачиваться можно по полной, чего душа желает.
Чтоб я для медицинского gpt еще добавил, ну так, навскидку: для медицины важно не только правильность самого ответа, сколько также знание о том что 100% не подходит под проблему
Ну т.е., понятно что если у тебя проблема задана «чел сломал ногу», а твоя модель говорит «ну я точно могу сказать что это не рак крови» — толку мало. Скорее просто дополнительно делать датасет, куда впихивать проблемы и болезни, которые не подошли по таким-то таким-то причинам. Чтоб reasoning меньше галюцинаций ловил