Skip to main content

Indie game storeFree gamesFun gamesHorror games
Game developmentAssetsComics
SalesBundles
Jobs
TagsGame Engines

там немного муторно и без графического интерфейса, хотя он есть (https://huggingface.co/spaces/Geonmo/nllb-translation-demo), если надо, то мне не сложно сделать архивчик с гуем

-надо поставить миниконду, устанавливать всем пользователям или делать основным питоном не обязательно

-потом надо переместить содержимое папки miniconda3 в свою миниконду с заменой

- потом переместить .cache в папку пользователя (там модельки)

-потом зайти в anaconda prompt (miniconda3)

-cd *здесь путь до папки, где лежит inference.ipynb, можно просто перетащить папку в окно консоли*

- python -m notebook

-откроется окошко браузера с юпайтером. надо открыть этот самый inference.ipynb и там запускаем все ячейки и всё должно заработать

Но вообще лучше я на днях переделаю с граф. интерфейсом

Благодарю за ответ. Стало немного понятнее (читал английскую инструкцию в txt-файле из архива с нллб, но опыта работы с питоном у меня нет, поэтому полностью разобраться в ней не получилось). Про онлайн-демку на хагингфейс знаю, я написал её админу с просьбой помочь мне разобраться в том, как установить оффлайн версию, но он лишь посоветовал мне изучать питон. Также на гитхабе нашёл страницу авторов нллб и там в разделе решения проблем задал тот же вопрос, ответа пока не последовало. Оставалось только продолжать гуглить, что я и сделал и в итоге нашёл вот этот проект: https://github.com/thammegowda/nllb-serve Сделал всё по приведённой там инструкции и переводчик наконец-то заработал в браузере (открывается на 6060 порте локалхоста), причём особенно радует то, что он может работать оффлайн (отключал вай-фай, чтобы проверить). Не знаю, будете ли Вы делать гуи-сборку нллб, используя установочный пакет с той странички, которую я дал выше, или, возможно, Вы знаете какой-то другой гуи-дистрибутив, но, думаю, люди будут Вам благодарны, потому что с миникондой и юпитером действительно как-то заморочно получается, имхо.

(2 edits)

короче я немного подумал и сделал батник, чтобы запускать всякие вебгуйки на градио однокнопочно, теперь nllb, point-e, freevc, track-anything(ну, почти) и shap-e запускаются просто с тыканья по  батнику.

(2 edits)

Архив с Shap-e вроде как старый остался, от 6-го мая. Спасибо, что упростили установку, благодарствую. Раз уж Вы делаете доброе дело, то, может быть, имеет смысл собрать в одном месте и другие нейросети, которые можно установить на ПК? Gpt4all, Alpaca Electron, Faraday.dev, Freedomgpt - это только то, что касается бесед с ии, да и то это далеко неполный список. А ведь наверняка существует немало похожих программ и по работе с изображениями, звуком, видео, программным кодом, синтезом речи и т.д. Простым пользователям бывает сложно найти их в огромном массиве англоязычной информации по данной теме, приходится тратить уйму времени пока среди кучи онлайн версий удаётся-таки найти сборку для автономной работы на цпу.

(2 edits)

Все альпакогуи основываются на консольном экзешнике llama.cpp, а значит все используют формат моделей ggml. Koboldcpp имхо самое удобное сейчас, что есть для ggml, плюс он мало весит. Из современных альпак самая лучшая сейчас это wizardLM (есть даже uncensored версия, которая никогда не откажет в ответе и вроде такая же умная), но она галлюцинирует иногда. И ещё есть vicuna 1.1, которая галлюцинирует поменьше (хотя мб это я сам себе галлюцинирую и у обоих всё збс, но визард плохо умеет в мультиязычность). Викуна с koboldcpp в загрузках есть, wizardlm с тем же гуем будет скоро, а остальной шлак, делающий то же самое, не думаю, что будет полезен. Для видео/картинок то же самое примерно получается, вот например есть vladmandic/automatic, automatic1111 и invokeai, они в целом выполняют одну функцию, но не выкладывать же теперь их все три, так что лучше будет меньше хлама и всё норм работающее (кроме point-e, он не оч)

Какая 7b ggml модель лучше всего подходит для создания веб-страниц с javascript?

(1 edit)

Вот эта https://huggingface.co/NeoDim/starcoder-GGML, но там 15B емнип, а так какой-нибудь wizardlm

Спасибо за наводку, но увы: 15в мои 16 гб озу не потянут. Поэтому сейчас жду, когда выйдет порт turbopilot на винду, автор проекта пообещал, что эта модель, ориентированная на создание программного кода, сможет нормально идти на 16-ти гигах: https://github.com/ravenscroftj/turbopilot/issues/24#issuecomment-1550881664