Академический Документы
Профессиональный Документы
Культура Документы
№2 497
УДК 81.25
ятностном значении. Нет необходимости програм- ревод окажется одинаковым, и на выходе сформи-
мировать нейронную сеть, такая сеть учится на ос- руется предложение «Его рейс задерживается».
нове примеров или же методом проб и ошибок. Технологии глубокого обучения, применяемые в
Одним из наглядных результатов подобного обуче- сфере языка, напрямую связаны со значением слова
ния может служить способность нейросетей обоб- (word meaning), которое принимается за вектор чи-
щать и соотносить данные. После успешного обу- сел [12]. «Для создания адекватного перевода сле-
чения нейронная сеть может найти логичное реше- дует использовать комплексные модели перевода…
ние для проблем одного типа, с которыми она до включающие в себя элементы семантической, ситу-
этого не сталкивалась [7, с. 3]. Например, «какао» и ативной и коммуникативной моделей [4, с. 132].
«кофе» часто появляются в сходных контекстах, а Существуют два уровня сходства слов: внешний
значит, оба эти слова должны быть возможны в (по форме) и семантический (по значению).
контексте нового слова «пить», хотя в обучающих Например, слова «бык», «корова» и «теленок»
данных с этим словом, допустим, встречалось имеют между собой мало общего, однако на семан-
только слово «кофе». Таким образом, в результате тическом уровне очевидно, что они используются
использования нейроперевода появляется фраза для выражения рода и возраста одного и того же
«пить какао». вида животных. Другой пример относится к внешне
Структуру нейроперевода можно представить (по форме) сходным словам: например, слова «мо-
следующим образом: росить» и «морозить». Так, для удобства представ-
ления семантического сходства слов была предло-
жена так называемая модель векторного представ-
ления слова (word embedding), которая помогает
сопоставить слово с определенным, присущим
только ему вектором во всем пространстве смыс-
лов. Вектор показывает коннотацию слова в число-
вом виде, а также то, что это слово помещено в
многомерное векторное пространство. Используя
методы для изучения векторов слов, применяемые
в глубоком обучении (Deep learning), и помещая
эти слова в многомерные векторные пространства,
можно спровоцировать их работу в качестве семан-
тически связных слов. Лексические единицы с по-
хожими значениями также группируются вместе в
векторном пространстве. При изучении вектора
слова требуются многомерные векторные про-
странства (300-мерные, 1000-мерные и т.д.). Каж-
x – необработанный сигнал (звук, слово, символ
дому вектору соответствует своя ось. Однако значе-
и т.д.) – входные данные; ние слова не всегда лежит вдоль определенной оси, на
h1 - внешний слой; самом деле оно может лежать под любым другим
h2 и h3 – скрытые (внутренние) слои; углом в векторном пространстве. Например, самыми
h4 – выходные данные. близкими значениями к слову “frog” будут: frogs, toad,
litoria, leptodactylidae, rana, lizard, eleutheutherodactylus.
Скрытые слои содержат сложные математиче-
Получается, что слова “frogs” и “toad” являются са-
ские вычисления, позволяющие определить кон-
мыми близкими по значению слову “frog”.
текст, а перевод в такой системе означает кодиро-
Долгие годы исследователи по-разному под-
вание и декодирование. Представим, что необхо-
ходили к вопросу определения семантического зна-
димо перевести фразу “His flight is delayed” на рус-
чения слов. В основном для этих целей использова-
ский язык. Репрезентация предложения формирует-
ся из векторных вложений отдельных слов. Коди- ли таксономические ресурсы. Самым известным
ровщик на основе имеющихся знаний, а точнее, среди них является электронный тезаурус и семан-
корпусных данных, оценивает, может ли “His” быть тическая сеть WordNet. Несмотря на то, что Word-
в начале предложения, затем рассчитывает вероят- Net, который долгое время широко применялся на
ность того, что после “His” может следовать практике, является большой базой данных смыслов
“flight”, и т.д. Затем происходит кодировка справа различных слов, существует много причин, по ко-
налево, как если бы предложение выглядело как торым из него трудно извлечь необходимые дан-
“delayed is flight His”. Следующий этап представля- ные. Одна из причин заключается в том, что на
ет собой непосредственно перевод. Декодер опре- этом уровне таксономических отношений теряется
деляет наиболее вероятностный перевод для слова огромное количество нюансов. Например, среди
“His”, стоящего в начале предложения («Его»), за- синонимов слова “good” есть «adept», «expert»,
тем – для “His flight” («Его рейс») и т.д. В итоге, «good», «practiced» и т.д. Хотя в действительности
для исходных фраз “His flight” и “His flight is” пе- все эти слова имеют разные значения.
ISSN 1998-4812 Вестник Башкирского университета. 2019. Т. 24. №2 499
сложно вычислить. Для каждого искомого слова, компенсировать недостатки двух разных подходов
будет вычисляться его вектор, затем данный век- к переводу [19–20].
тор будет использоваться для определения вероят-
ЛИТЕРАТУРА
ности использования других слов, которые появ-
ляются в контексте искомого слова [12]. 1. Алимов В. В., Артемьева Ю. В. Специальный перевод: практи-
ческий курс перевода: изд. 2. М.: ЛЕНАНД, 2017. 208 с.
2. Злобин В. К., Ручкин В. Н. Нейросети и нейро-
компьютеры: учеб. пособие. СПб.: БВХ – Петербург, 2011.
256 с.
3. Морозкина Е. А., Мифтахова Р. Г. Влияние информационных
технологий на развитие лингвистических норм. Башкирский
гос. ун-т. Вестник, 2012. №1. С. 162–164.
Переход к использованию нейронных сетей 4. Морозкина Е. А., Мифтахова Р. Г. Основы моделирования
классического машинного перевода и статистического
начался в Yandex в сентябре 2017 г. Нейронная сеть машинного перевода. Мат-лы конф. «Актуальные пробле-
работает с большими параллельными корпусами, мы контрастивной лингвистики, типологии языков и
анализирует их с целью обнаружения закономерно- лингвокультурологии в полиэтническом пространстве»,
стей, на которых потом учится. Нейросеть не толь- 2011. С. 130–135.
5. Морозкина Е. А., Мифтахова Р. Г Основы моделирования
ко переводит предложения максимально близко к классического машинного перевода и статистического ма-
естественному языку, но и производит определен- шинного перевода. Актуальные проблемы контрастивной
ную проверку, проводит каждое слово через модель лингвистики, типологии языков и лингвокультурологии в по-
языка во избежание несогласования и устранения лиэтническом пространстве. Сб. науч. ст. в 3-х ч. Мин. обр. и
науки РФ, Башкирский гос. ун-т. 2011. С. 130–135.
любых грамматических или орфографических 6. Стейнбек Дж. Гроздья гнева / пер. Н. Волжина. М., Азбу-
ошибок [18]. ка. 2014. 607 с.
Несмотря на все очевидные достоинства 7. Kriesel D. A Brief Introduction to Neural Networks. 2007.
нейронной сети в переводе, существуют и некото- 286 p.
8. Steinbeck John The Grapes of Wrath. 2014. 678 p.
рые недостатки. При переводе незнакомого фраг- 9. URL: https://help.smartcat.ai/hc/ru/articles/360017711291-16-
мента текста нейросеть либо выбросит его, либо 03-2017-
начнет «придумывать» что-то свое и будет ждать, 10. URL: https://www.andovar.com/machine-translation/
11. URL: https://www.frontiersin.org/research-topics/4817/arti-
пока это слово окончательно войдет в широкое
ficial-neural-networks-as-models-of-neural-information-
употребление. Особенно это касается недостаточно processing
распространенных имен или названий, редких слов 12. URL: http://nautil.us/issue/21/information/the-man-who-tried-
и выражений, сленга или намеренного искажения to-redeem-the-world-with-logic
13. URL: https://ain.ua/2017/03/03/kak-rabotayut-nejroseti/
слов, которое, например, часто встречаются в заго- 14. URL: https://ai-science.ru/dzhon-dzhozef-xopfild/
ловках газет. Самый известный пример, получив- 15. URL: http://users.ics.aalto.fi/teuvo/
ший широкое распространение в сети, это перевод 16. URL: https://hi-news.ru/research-development/iskusstvennyj-
простого предложения: “Good morning kids!” как intellekt-i-dzheffri-xinton-otec-glubokogo-obucheniya.html
17. URL: https://habr.com/post/330654/
«Хорошие морники!», где система не смогла кор- 18. URL: https://yandex.ru/blog/company/kak-pobedit-mornikov-
ректно распознать синтаксис, посчитав слово yandeks-zapustil-gibridnuyu-sistemu-perevoda
«morning» определением к слову «kids», и «выду- 19. URL: https://www.andovar.com/machine-translation/ Stanford
мала» новое слово. Другая проблема состоит в том, University School of Engineering, Lecture 2: Word Vector
Representations: word2vec
что для обучения нейронной сети требуются корпу- 20. URL: https://www.youtube.com/watch?v=ERibwqs9p38&in-
са больших объемов, чем для статистической си- dex=2&list=PL3FW7Lu3i5Jsnh1rnUwq_TcylNr7EkRe6
стемы (до 500 млн, чтобы обеспечить надлежащий 21. URL: https://towardsdatascience.com/introduction-to-word-
перевод), а следовательно, требуется чрезвычайно embedding-and-word2vec-652d0c2060fa
22. URL: http://mccormickml.com/2016/04/19/word2vec-tutorial-
большая вычислительная мощность [18]. the-skip-gram-model/
Несмотря на все преимущества, нейронному 23. URL: https://www.microsoft.com/en-us/translator/business/
переводчику необходимо время для самообучения. machine-translation/#nnt
Нейронный переводчик обрабатывает целые пред- 24. URL: https://habr.com/ru/post/414343/
25. URL: https://yandex.ru/company/press_releases/2011/0316/
ложения, а статистический – делит его на n- 26. URL: https://www.eduherald.ru/ru/article/view?id=18262
граммы, при этом нейронный переводчик не может 27. URL: https://yandex.ru/company/technologies/translation/
рассчитать модель языка, тогда как статистический 28. URL: https://nplus1.ru/material/2016/11/04/recurrent-networks
29. URL: http://www.promt.ru/translation_software/home/master/
может. Таким образом, полагаем, что на данной
#PHP0003#
стадии развития нейронных сетей в переводе 30. URL: https://www.bbc.com/news/world-asia-47018747
наиболее продуктивным является использование 31. URL: https://www.bbc.com/russian/news-47012916
гибридных систем, с помощью которых можно 32. URL: https://lim-english.com/posts/tehnicheskii-angliiskii/
Published in Russian. Do not hesitate to contact us at bulletin_bsu@mail.ru if you need translation of the article.
REFERENCES
1. Alimov V. V., Artem'eva Yu. V. Spetsial'nyi perevod: prakticheskii kurs perevoda: izd. 2 [Special translation: practical translation
course: 2nd Ed.]. Moscow: LENAND, 2017.
2. Zlobin V. K., Ruchkin V. N. Neiroseti i neiro-komp'yutery: ucheb. posobie [Neural networks and neurocomputers: textbook]. Saint Pe-
tersburg: BVKh – Peterburg, 2011.
3. Morozkina E. A., Miftakhova R. G. Vliyanie informatsionnykh tekhnologii na razvitie lingvisticheskikh norm. Bashkirskii gos. un-t.
Vestnik, 2012. No. 1. Pp. 162–164.
4. Morozkina E. A., Miftakhova R. G. Osnovy modelirovaniya klassicheskogo mashinnogo perevoda i statisticheskogo mashinnogo
perevoda. Mat-ly konf. «Aktual'nye problemy kontrastivnoi lingvistiki, tipologii yazykov i lingvokul'turologii v polietnicheskom pros-
transtve», 2011. Pp. 130–135.
5. Morozkina E. A., Miftakhova R. G Osnovy modelirovaniya klassicheskogo mashinnogo perevoda i statisticheskogo mashinnogo
perevoda. Aktual'nye problemy kontrastivnoi lingvistiki, tipologii yazykov i lingvokul'turologii v polietnicheskom prostranstve. Sb.
nauch. st. v 3-kh ch. Min. obr. i nauki RF, Bashkirskii gos. un-t. 2011. Pp. 130–135.
6. Steinbek J. Grozd'ya gneva [The grapes of wrath] / per. N. Volzhina. M., Azbuka. 2014.
7. Kriesel D. A Brief Introduction to Neural Networks. 2007.
8. Steinbeck J. The Grapes of Wrath. 2014.
9. URL: https://help.smartcat.ai/hc/ru/articles/360017711291-16-03-2017-
10. URL: https://www.andovar.com/machine-translation/
11. URL: https://www.frontiersin.org/research-topics/4817/artificial-neural-networks-as-models-of-neural-information-processing
12. URL: http://nautil.us/issue/21/information/the-man-who-tried-to-redeem-the-world-with-logic
13. URL: https://ain.ua/2017/03/03/kak-rabotayut-nejroseti/
14. URL: https://ai-science.ru/dzhon-dzhozef-xopfild/
15. URL: http://users.ics.aalto.fi/teuvo/
16. URL: https://hi-news.ru/research-development/iskusstvennyj-intellekt-i-dzheffri-xinton-otec-glubokogo-obucheniya.html
17. URL: https://habr.com/post/330654/
18. URL: https://yandex.ru/blog/company/kak-pobedit-mornikov-yandeks-zapustil-gibridnuyu-sistemu-perevoda
19. URL: https://www.andovar.com/machine-translation/ Stanford University School of Engineering, Lecture 2: Word Vector Representa-
tions: word2vec
20. URL: https://www.youtube.com/watch?v=ERibwqs9p38&in-dex=2&list=PL3FW7Lu3i5Jsnh1rnUwq_TcylNr7EkRe6
21. URL: https://towardsdatascience.com/introduction-to-word-embedding-and-word2vec-652d0c2060fa
22. URL: http://mccormickml.com/2016/04/19/word2vec-tutorial-the-skip-gram-model/
23. URL: https://www.microsoft.com/en-us/translator/business/machine-translation/#nnt
24. URL: https://habr.com/ru/post/414343/
502 ФИЛОЛОГИЯ и ИСКУССТВОВЕДЕНИЕ
Received 27.05.2019.