didleth, Polish
@didleth@mastodon.social avatar

zgłaszałam do deepl.com problem z tłumaczeniem wedle stereotypów płciowych, zamiast wedle pierwotnego tekstu. Odpowiedzieli ;p

#feminizm #tłumaczenia #translator #deepl

piotrsikora,
@piotrsikora@pol.social avatar

@didleth to tłumaczenie opiera się na modelu LLM… to nie soft w którym zmienisz po prostu ze ma inaczej działać… muszą przygotować datasset, lub go zmienić… potem wrzucić w trenowanie na pewnie tygodnie i dopiero przetestować… po testach dopiero wrzucić. Raczej miesiące :/ @tomek

rdrozd,
@rdrozd@101010.pl avatar

@piotrsikora @didleth @tomek

O tym @InfZakladowy pisał niedawno na FB. Inna sprawa, że muszą mieć mechanizm jakieś ręcznej interwencji w momencie gdy jakieś tłumaczenie będzie rażąco niepoprawne (formalnie czy politycznie).

didleth,
@didleth@mastodon.social avatar

@rdrozd @piotrsikora @tomek @InfZakladowy u nich notorycznie jest. Pielęgniarza tłumaczą jako siostrę-pielęgniarkę, bo wiadomo, że facet nie nadaje się do opieki nad chorymi, a polityczkę czy programistkę jako polityka czy programistę, bo wiadomo, że baby nie powinny się pchać do polityki czy programowania…tak czy inaczej zgłosiłam i mam nadzieję, że to dopracują - lepiej późno niż wcale…

piotrsikora,
@piotrsikora@pol.social avatar

@didleth ogólnie na szybko to dosłownie robi się przez jakiś middleware, albo modyfikując prompt-a… ale tam za dużo nie można pakować, bo raz że context window ma ograniczenia, a dwa że w pewnym momencie można wpaść w generowanie jakiś halucynacji i będą się pojawiały słowa których w ogóle nie powinno być :)

@rdrozd @tomek @InfZakladowy

didleth,
@didleth@mastodon.social avatar

@piotrsikora

rozmawiałam (tzn. w komentarzach na masto ;)) na ten temat z jedną z dziennikarek, która zajmuje się LLM - zwróciła uwagę, że to może być kwestia korzystania z pośrednictwa j. angielskiego - tj. najpierw tłumaczy z polskiego na angielski - który jest "neutralny", a dopiero z ang. na niemiecki. Jeśli by tak było - to chyba łatwo można by to naprawić nie traktując angielskiego jak świętej krowy i nie pakując go tam, gdzie zupełnie nie pasuje...

@rdrozd @tomek @InfZakladowy

marta_szczecin,

@didleth @piotrsikora @rdrozd @tomek @InfZakladowy myślę że tak jest, bo problem z zachowaniem rodzaju jest nawet przy tłumaczeniu pomiędzy np. polskim a czeskim

piotrsikora,
@piotrsikora@pol.social avatar

od razu mówię że tak nie jest. LLM się szkoli przez labeling i używa się jego kawałka. Zawsze tłumaczy 1:1 i pełnymi tekstami (nawet nie zdaniami) aby „rozumiał” cały kontekst.

@marta_szczecin @didleth @rdrozd @tomek @InfZakladowy

marta_szczecin,

@piotrsikora @didleth @rdrozd @tomek @InfZakladowy 1:1 czyli bezpośrednio z polskiego na czeski w moim przykładzie?

piotrsikora,
@piotrsikora@pol.social avatar

@marta_szczecin nie wiem czego do tlumazenia uzywasz, ale np. taki deepl.com (z tego co wiemy) byl tlumaczony w kazdej konfiguracji dostepnych jezykow w UE (byl szkolony na dokumentach unijnych).

Ogólnie technicznie to wyglada tak...
Tu masz model ktory byl trenowany na wszelkie mozliwe sposoby:
https://huggingface.co/utrobinmv/t5_translate_en_ru_zh_large_1024

A tu masz taki ktory potrafi tylko z angielskiego na dany jezyk:
https://huggingface.co/facebook/mbart-large-50-one-to-many-mmt

A tu informacja jak sie to robi:
https://huggingface.co/docs/transformers/model_doc/t5#training

@didleth @rdrozd @tomek @InfZakladowy

marta_szczecin,

@piotrsikora @didleth @rdrozd @tomek @InfZakladowy używałam DeepLa właśnie, (bezpłatnej wersji) do tłumaczenia swojej korespondencji z czeskim sklepem internetowym. Onże DeepL z uporem godnym lepszej sprawy zmieniał mi wszystkie końcówki na rodzaj męski. Skoro tłumaczenie nie idzie przez angielski, to jak myślisz gdzie się ten rodzaj gubi? Dokumentacja unijna używa tylko r.m. i dlatego model nie zna r.ż.?

piotrsikora,
@piotrsikora@pol.social avatar

@marta_szczecin obstawiam właśnie że problem na tym może polegać. Także myślę że model na pewno jest lepiej dotrenowywany w parach z angielskim.

No i też ponprostu ten model z angielskim może być większy (więcej parametrów). A inne pary języków są robione jako lżejsze.

Też całkiem możliwe że to cały czas trenują, więc pewnie z czasem będzie lepiej.

@didleth @rdrozd @tomek @InfZakladowy

marta_szczecin,

@piotrsikora @didleth @rdrozd @tomek @InfZakladowy Trzymając się tej pary językowej chętnie poznałabym opinię osoby ze znajomością czeskiego na temat jakości tego tłumaczenia w innych aspektach. Zaskoczyło mnie, że trudność dotyczy tak prostego zdawałoby się zadania jak zachowanie rodzaju.

piotrsikora,
@piotrsikora@pol.social avatar

@marta_szczecin dla Ciebie tak bo jestes czlowiekiem, ale pamiętaj że to co teraz nazywamy "sztuczna inteligencja" nie ma z nia nic wspolnego ;)
Tak naprawdę technicznie to LLM-y to są systemy predykcyjne (+ swietny kompresor).
Wiec on dostaje jakis zbior slow (ktore wewnatrz sa tokenami w formie tokenow) i na podstawie tego co jest juz podane i generowane generuje dalej nowe tokeny ;)
Cala magia tej "sztucznej intelegencji" ;)
Choc fakt faktem... jest to na tyle dobre ze sprawia zalaczki tego ze potrafi to jakos "myslec" ;)

@didleth @rdrozd @tomek @InfZakladowy

  • All
  • Subscribed
  • Moderated
  • Favorites
  • translator
  • rosin
  • Youngstown
  • khanakhh
  • ngwrru68w68
  • slotface
  • ethstaker
  • mdbf
  • everett
  • kavyap
  • DreamBathrooms
  • thenastyranch
  • cisconetworking
  • magazineikmin
  • Durango
  • megavids
  • GTA5RPClips
  • anitta
  • tester
  • tacticalgear
  • InstantRegret
  • normalnudes
  • osvaldo12
  • cubers
  • provamag3
  • modclub
  • Leos
  • JUstTest
  • lostlight
  • All magazines