ИСКУССТВЕННАЯ НЕЙРОСЕТЕВАЯ ГЕНЕРАЦИЯ ТЕКСТА КАК НОВЫЙ ВИД МАСКИРОВКИ ПИСЬМЕННОЙ РЕЧИ АВТОРА
Аннотация и ключевые слова
Аннотация (русский):
Цель статьи – разработать новый вид маскировки письменной речи автора, такой как искусственная нейросетевая генерация текста, для проведения автороведческих экспертиз и последующих исследований. Материалом послужили тексты, выполненные человеком, и тексты, сгенерированные большой языковой моделью GPT 4.5. Применены методы композиционно-семантического, структурно-­семантического и грамматико-синтаксического анализа текстов, порожденных нейросетью в результате выполнения задачи по маскировке письменной речи автора. Данные методы позволили выявить и описать дефекты сгенерированных текстов, обусловленные нарушениями в их импликативной и референциальной семантике. Раскрыты актуальные вопросы языкового моделирования, возможностей генеративных языковых моделей, основанных на нейросетевых алгоритмах. Отмечена необходимость разграничения текстов естественного происхождения и генеративной природы для установления авторства. Установлено наличие корреляции между наполнением промпта дополнительными параметрами и результатом решения языковой моделью задачи по выполнению маскировки письменной речи автора. Сформулирован перечень типовых языковых признаков сгенерированных текстов. Приведены примеры сравнения текстов-оригиналов и текстов, порожденных нейросетью. Перспективы дальнейших исследований заключаются в углубленном изучении возможностей построения нейросетью сложных текстовых структур, включающих черты идиостиля автора текста-­оригинала, предварительно загруженного в модель, по заданным параметрам промптов, а также формирование диагностического комплекса признаков искусственной нейросетевой генерации текста как нового вида маскировки, в основу которого будет положен перечень типовых языковых признаков искусственно сгенерированных текстов.

Ключевые слова:
автороведческая экспертиза, нейросети, генерация текста, письменная речь, маскировка письменной речи, языковые модели
Список литературы

1. Алексеева Л. Г., Алексеев П. С. Язык промптов, или особенности формулирования запросов к генеративным нейросетям для создания изображений. Verba. Северо-Западный лингвистический журнал. 2024. № 3. С. 50–61. https://doi.org/10.34680/VERBA-2024-3(13)-50-61

2. Бурнашев Р. Ф., Аламова А. С. Роль нейронных сетей в лингвистических исследованиях. Science and Education. 2023. Т. 4. № 3. С. 258–269.

3. Глазова Л. И., Лузгина А. Д., Пугачевский А., Кочетова А. Н., Фейзуллов Д., Чиж А. В., Виноградов М. Ю. Искусственный интеллект как эффективный инструмент коммуникаций. Российская школа связей с общественностью. 2024. № 33. С. 48–65. https://elibrary.ru/jurxuo

4. Гуляева П. С. Применение генеративных языковых моделей в условиях цифровизации нормотворчества. Вестник МГПУ. Серия: Юридические науки. 2023. № 3. С. 126–137. https://doi.org/10.25688/2076-9113.2023.51.3.11

5. Зырянова И. Н., Чернавский А. С. Генеративные языковые модели и феномен антиантропоцентризма – новые перспективы лингвистической парадигмы «posthumano» и «общего/сильного» ИИ. Известия Байкальского государственного университета. 2024. Т. 34. № 1. C. 144–152. https://doi.org/10.17150/2500-2759.2024.34(1).144-152

6. Козловский А. В., Мельник Я. Э., Волощук В. И. О подходе для автоматической генерации сюжетно связанного текста. Известия Тульского государственного университета. Технические науки. 2022. № 9. С. 160–167. https://elibrary.ru/dirfga

7. Кривошеев Н. А., Иванова Ю. А., Спицын В. Г. Автоматическая генерация коротких текстов на основе применения нейронных сетей LSTM и SeqGAN. Вестник Томского государственного университета. Управление, вычислительная техника и информатика. 2021. № 57. С. 118–130. https://doi.org/10.17223/19988605/57/13

8. Огорелков И. В. Особенности диагностического автороведческого исследования анонимного документа на основании признаков, характеризующих имитацию авторства. Русский язык за рубежом. 2020. № 1. С. 66–69. https://elibrary.ru/seglhn

9. Рубцова И. И., Ермолова Е. И., Безрукова А. И., Огорелков И. В. Установление факта маскировки письменной речи в тексте анонимного документа: методические рекомендации. М.: ЭКЦ МВД России, 2013. 64 с.

10. Солдаткина Я. В., Чернавский А. С. Генеративные языковые модели как актуальный феномен медиакультуры в начале XXI века. Наука и школа. 2023. № 4. С. 42–54. https://doi.org/10.31862/1819-463X-2023-4-44-56

11. Стецик М. Союз лингвистики и промпт-инжиниринга: лингвистические особенности запросов к нейросети. Vilnius University Open Series. 2024. С. 155–166. https://doi.org/10.15388/SV-I-II.2024.14

12. Тельпов Р. Е., Ларцина С. В. Типовые различия естественных и сгенерированных нейронной сетью текстов в квантитативном аспекте. Научный диалог. 2023. Т. 12. № 7. С. 47–65. https://doi.org/10.24224/2227-1295-2023-12-7-47-65

13. Фищева И. Н., Пескишева Т. А., Головизнина В. С., Котельников Е. В. Метод классификации аспектов аргументации в русскоязычных текстах. Программные системы: теория и приложения. 2023. Т. 14. № 4. С. 25–45. https://doi.org/10.25209/2079-3316-2023-14-4-25-45

14. Floridi L., Chiriatti M. GPT-3: Its nature, scope, limits, and consequences. Minds and Machines, 2020, 30(4): 681–694. https://doi.org/10.1007/s11023-020-09548-1

15. Jurafsky D., Martin J. H. Speech and Language Processing. Pearson Prentice Hall, 2009, 988.

16. Maynez J., Narayan S., Bohnet B., Mcdonald R. On faithfulness and factuality in abstractive summarization. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020, 1906–1919. https://doi.org/10.18653/v1/2020.acl-main.173

17. Mikhaylovskiy N., Churilov I. Autocorrelations decay in texts and applicability limits of language models. Computational Linguistics and Intellectual Technologies: Papers from the Annual International Conference "Dialogue", 2023, (22), 350–360. https://doi.org/10.48550/arXiv.2305.06615

18. Ostyakova L., Petukhova K., Smilga V., Zharikova D. Linguistic annotation generation with ChatGPT: A synthetic dataset of speech functions for discourse annotation of casual conversations. Computational Linguistics and Intellectual Technologies: Papers from the Annual International Conference "Dialogue", 2023, (22), 386–403.

19. Radford A., Narasimhan K., Salimans T., Sutskever I. Improving language understanding by generative pre-training. OpenAI, 2018. URL: https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf (accessed 10 Mar 2025).

20. Sutskever I., Vinyals O., Le Q. V. Sequence to sequence learning with neural networks. Advances in Neural Information Processing Systems 27, 2014, 3104–3112.

21. Vaswani A., Shazeer N., Parmar N., Uszkoreit J., Jones L., Gomez A. N., Kaiser L., Polosukhin I. Attention is all you need. Advances in Neural Information Processing Systems 30, 2017, 5998–6008.

22. Zhang C., Bengio S., Hardt M., Recht B., Vinyals O. Understanding deep learning (still) requires rethinking generalization. Communications of the ACM, 2021, 64(3): 107–115. https://doi.org/10.1145/3446776

23. Zupan J., Gasteiger J. Neural networks: A new method for solving chemical problems or just a passing phase? Analytica Chimica Acta, 1991, 248(1): 1–30. https://doi.org/10.1016/S0003-2670(00)80865-X


Войти или Создать
* Забыли пароль?