Перейти к содержимому
Zone of Games Forum

gl237man

Новички+
  • Публикации

    37
  • Зарегистрирован

  • Посещение

Все публикации пользователя gl237man

  1. Starfield

    @RUIZ007 Если не сложно можно попросить примеры на которых ты пробовал, хочу разобраться и сравнить сам. можно в личку если там чтото под копирайтами.
  2. Starfield

    Для тегов в любом случае нужно писать препроцессиг. Думаю задача решаемая, завтра как выложат файлы займусь написанием препроцесинга и и постпроцесинга для сохранения тегов, затем проганю на всех системах небольшой фрагмент. и будем уже решать на чем остановиться.
  3. Starfield

    @RUIZ007 Полностью согласен, но уже можно отсеять тех которые плохо работают.
  4. Starfield

    @zzzombie89 На простых фразах они все работают примерно одинаково хорошо
  5. Starfield

    Протестировал все доступные мне на данный момент варианты машинного перевода. Выборка маленькая так что не претендую на полноценное исследование взял две достаточно сложные фразы из vampire survivors Фраза 1: Once a thriving haven, now a dumping ground for evil. A vampire is said to be the root of this evil, but we can find only mayhem and roast chicken. Фраза 2: The Futile Scribe was cursed to know all and understand nothing. His endless library may gift us insight... or damnation. A mask of stone whispers endlessly within. DeepL 1: Некогда процветающая гавань, а теперь - свалка зла. Считается, что в основе этого зла лежит вампир, но мы находим здесь только хаос и жареных цыплят. DeepL 2: Тщетный писец был проклят на то, чтобы знать все и не понимать ничего. Его бесконечная библиотека может подарить нам прозрение... или проклятие. Каменная маска бесконечно шепчет внутри. Yandex 1: Некогда процветающий рай, а теперь свалка зла. Говорят, что вампир - корень этого зла, но мы можем найти только хаос и жареного цыпленка. Yandex 2: Бесполезный Писец был проклят знать все и ничего не понимать. Его бесконечная библиотека может подарить нам прозрение... или проклятие. Каменная маска бесконечно шепчет внутри. Google 1: Когда-то процветающее убежище, теперь свалка зла. Говорят, что вампир является корнем этого зла, но мы можем найти только хаос и жареную курицу. Google 2: Бесполезный писец был проклят знать все и ничего не понимать. Его бесконечная библиотека может подарить нам понимание... или проклятие. Каменная маска бесконечно шепчет внутри. Chat GPT 3.5 (zero shot) 1: Однажды процветающий рай, теперь место выброса зла. Говорят, что вампир является корнем этого зла, но мы видим только хаос и жареную курицу. Chat GPT 3.5 (zero shot) 2: Бесплодный писец был проклят знать всё, но ничего не понимать. Его бесконечная библиотека может даровать нам понимание... или осуждение. Маска из камня бесконечно шепчет внутри. Alpaca 65b (8BQ) (zero shot) 1: Однажды процветающий убежище, теперь свалку зла. Считается, что вампир является корнем этого зла, но мы можем найти только хаос и жареную курицу. Alpaca 65b (8BQ) (zero shot) 2: Проклятый писец был обречен знать все и понимать ничего. Его бесконечная библиотека может подарить нам просвещение ... или проклятие. Маска из камня шепчет беспрестанно внутри. LLama-2-chat (8BQ) (zero shot) 1: Один раз процветающий рай, теперь место для сбрасывания зла. Сказали, что вампир - это корень зла, но наше исследование выдало только беспорядки и жаренную курицу. LLama-2-chat (8BQ) (zero shot) 2: Скриба Futile был проклят знать все и не понимать ничего. Его бесконечная библиотека может дать нам инсайт... или проклятье. Маска из камня шепчет беспрерывно внутри. bing 1: Когда-то процветающая гавань, теперь свалка зла. Говорят, что вампир является корнем этого зла, но мы можем найти только хаос и жареную курицу. bing 2: Тщетный Книжник был проклят за то, что знал все и ничего не понимал. Его бесконечная библиотека может дать нам понимание... или проклятие. Каменная маска бесконечно шепчет внутри. Helsinki-NLP_opus-mt-en-ru 1: Когда-то процветал гавань, а теперь свалка зла. Говорят, что вампир - корень этого зла, но мы можем найти только крушение и жареную курицу. Helsinki-NLP_opus-mt-en-ru 2: Его нескончаемая библиотека может даровать нам понимание... или проклятие. Маска камня бесконечно шепчет внутри. facebook_nllb-200-3.3B 1: Когда-то процветающее убежище, теперь место для выброса зла. но мы можем найти только хаос и жареную курицу. facebook_nllb-200-3.3B 2: Бесполезное писание было проклято, чтобы знать все и ничего не понимать его бесконечная библиотека может подарить нам проницательность или проклятие маска из камня шепчет бесконечно внутри SeamlessM4T 1: Когда-то процветающее убежище, теперь свалка зла. Вампир, как говорят, является корнем этого зла, но мы можем найти только хаос и жареную курицу. SeamlessM4T 1: Бесполезный Писатель был проклят, чтобы знать все и ничего не понимать. Его бесконечная библиотека может подарить нам понимание... или проклятие. Каменная маска бесконечно шепчет внутри. коментарий Использовать онлайн системы DeepL, Google, Yandex, Bing для этого прийдется покупать API Это может стоит денег. Api для ChatGpt Довольно доргое и сложно-доступное в России! SeamlessM4T Требует всего 14 GB видеопамяти и работает довольно быстро! nllb-200 так и не получилось запустить на GPU хотя и в память влезает SeamlessM4T можно указать контекст (например SciFi Сеттинг) но еще доконца с этим не разобрался. В SeamlessM4T также есть возможность использовать few shot, не только zero shot, но там надо подумать и поковырятся. Русский не мой основной язык так что извеняюсь за вАзможные ошибки ))
  6. Starfield

    Обязательно отпишусь, позавтракаю и сделаю сравнительную таблицу с разных нейронок и онлайн переводчиков.
  7. Starfield

    Там как я понимаю в онлайн демо самая маленькая версия модели, со всеми параметрами в 1. И размером выборки токена в 35 чтоб рспробовать нужно большую разворачивать и настраивать. Завтра посмотрю раскажу о результатах. Мне самому интересно что у них вышло их предыдущая модель давала неплохие результаты я не думаю что свежая сильно хуже.
  8. Starfield

    Кстати сейчас почитал мета выложили свою SeamlessM4T в открытый доступ, нужно будет опробовать пока файлы starfild не выложили.
  9. Starfield

    Я с даты анонса “отсутствия русской локализации” начал разбираться в системах машинного перевода, опробовал все доступные нейросети машинного перевода на huggingface, разобрался как их запускать настраивать дообучать итд. В качестве основной остановился на M2M-100, мне показалось что она лучше всего подходит под подобные задачи. LLM трансформеры переводят лучше чем DeepL и другие доступные онлайн переводчики но невероятно долго.
  10. Starfield

    Для использования api нужно им денег заплатить, мне проще большие нейронки локально запусить, дешевле выйдет, плюс современные большие открытые нейронки не хуже комерческих работают. А если брать LLAMA-2 или что-то подобное то и контекст можно подставлять чтоб перевод точнее был.
  11. Starfield

    Это проще чем кажется если вместо регулярок написать специальный psrser-lexer на чем-нибуть типо COCOS.
  12. Starfield

    Готов сегоня ночью написать скрипты на python, (pytorch) для автоматизации перевода нейросетями, например есть возможность заюзать meta “M2M-100” если влезет в видеокарту то думаю завтра к обеду все посчитается, если не влезет то могу запустить на нескольких компах, думаю пару тройку дней будет переводиться. Есть нейронка чуть меньше но и переводит чуть хуже но зато быстро.

×