Перейти к содержимому
Zone of Games Forum
Wiltonicol

Руководство: как сделать нейросетевой/машинный перевод на Gemini

Рекомендованные сообщения

@Wiltonicol внизу проги вроде есть прогресс-бар. Можно его задействовать при открытии файлов? Если скармливаешь большой файл прога словно зависает(не отвечает), в целом на результат это не сказывается, но  будет понятно, что прога не зависла, а трудится в поте лица)) Она в принципе часто ловит это состояние ложного зависания при “тяжёлых” действиях)

Например, при работе с 6,5мб файлом, применяет фильтр довольно быстро, а вот если нажать на кнопку “очистить фильтры”. Применился фильтр за 10 сек, снимался 25 сек.

gAd7087AMM.jpg

Изменено пользователем allodernat
  • +1 1

Поделиться сообщением


Ссылка на сообщение

@Wiltonicol ещё из пожеланий, если я брать уже подготовленные json(txt).

{
    "FilePath": "",
    "itemId": "337",
    "CharacterID": "846f-0",
    "CharacterName": "Рассказчик",
    "Gender": "male",
    "OriginalText": "This is a dream. "
},
{
    "FilePath": "",
    "itemId": "338",
    "CharacterID": "846f-0",
    "CharacterName": "Рассказчик",
    "Gender": "male",
    "OriginalText": "A dream about how I survived. "
},
{
    "FilePath": "",
    "itemId": "344",
    "CharacterID": "846f-6532",
    "CharacterName": "Заключённый",
    "Gender": "male",
    "OriginalText": "Yo, look who's awake. "
},
{
    "FilePath": "",
    "itemId": "347",
    "CharacterID": "846f-6532",
    "CharacterName": "Заключённый",
    "Gender": "male",
    "OriginalText": "You had a heatstroke and you were out cold for 3 days. "
},
{
    "FilePath": "",
    "itemId": "348",
    "CharacterID": "846f-6532",
    "CharacterName": "Заключённый",
    "Gender": "male",
    "OriginalText": "We thought you were dead. Didn't think you could pull through. "
},
{
    "FilePath": "",
    "itemId": "349",
    "CharacterID": "846f-6532",
    "CharacterName": "Заключённый",
    "Gender": "male",
    "OriginalText": "You look more than just awful. Had a nightmare?"
},
{
    "FilePath": "",
    "itemId": "353",
    "CharacterID": "846f-6532",
    "CharacterName": "Заключённый",
    "Gender": "male",
    "OriginalText": "It could be your life flashing before your eyes. Tough bastard. "
}

Скажем такой текст, можно ли это реализовать, чтобы можно было привязывать к “исходному тексту” разные параметры, для понимания ИИ, чтобы шла склейка "CharacterName" + "Gender" + "OriginalText" из которых "CharacterName" + "Gender" для привязки текста к имени и гендеру, чтобы было лучше понимания ИИ контекста. Ну и прописывать их в промте.

И ещё касательно глоссария для перевода, опустим, что туда неплохо было добавить “Персонаж — гендер”) В том виде в котором он не очень удобен для вноса, было бы не плохо, чтобы можно было бы его импортировать/экспортировать(ini/json/txt), без разницы, главное не вводить потаблично, это может превратиться в пытку) Но его наличие плюс)

Изменено пользователем allodernat
  • В замешательстве (0) 1

Поделиться сообщением


Ссылка на сообщение

Можно-ли подключить локальные LLM Нейронки не облачные через Ollama.API? Допустим у меня уже крутится на машине локальный DeepSeek 32b Q5_k_m и еще свободных мощностей ПК хватает что-бы браузить или видео смотреть преспокойно. По типу SillyTavern (у меня оная полностью локальная и локализованная  — хотя многие обыватели пользуют только через облака)

Поделиться сообщением


Ссылка на сообщение
6 часов назад, Mr_GaNjA сказал:

Можно-ли подключить локальные LLM Нейронки не облачные через Ollama.API? Допустим у меня уже крутится на машине локальный DeepSeek 32b Q5_k_m и еще свободных мощностей ПК хватает что-бы браузить или видео смотреть преспокойно. По типу SillyTavern (у меня оная полностью локальная и локализованная  — хотя многие обыватели пользуют только через облака)

Если честно никогда не имел опыта с этим, отпишу в лс

Изменено пользователем Wiltonicol

Поделиться сообщением


Ссылка на сообщение

@Mr_GaNjA Пробовал deepseek через LLM, результат был сильно хуже облачной, как по качеству, так и по производительности.

Поделиться сообщением


Ссылка на сообщение
8 hours ago, allodernat said:

@Mr_GaNjA Пробовал deepseek через LLM, результат был сильно хуже облачной, как по качеству, так и по производительности.

Тут от количества миллиарда параметров зависит и квантовки! Мои 32b не каждый потянет. Обычные потребители даже не пытаются заходить выше уровня в 12b или 14b там конечно результат не ахти будет. С 20b уже другая лига начинается, но и видеопамяти с оперативой вагон уже нужно. Плюс у меня установленны не DeepSeek единый, а еще:

Gemma3:27b Q8_K_M (Семейство Google Gemeni)

QWEN3_32b_Q5_K_M (Кодерные Китайцы)

Nourse Capibara 34b Q5_K_M (Писательные Китайцы)

 

Изменено пользователем Mr_GaNjA

Поделиться сообщением


Ссылка на сообщение

Как сами Google утверждают их локальная Gemma 3 27b побила облачный DeepSeek R1 на 671b (параметров) в диалогах. Может имеет смысл использовать именно её!

Изменено пользователем Mr_GaNjA
Неточности

Поделиться сообщением


Ссылка на сообщение

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Войти

Уже зарегистрированы? Войдите здесь.

Войти сейчас



Zone of Games © 2003–2025 | Реклама на сайте.

×