Отправьте статью сегодня! Журнал выйдет ..., печатный экземпляр отправим ...
Опубликовать статью

Молодой учёный

Психологические аспекты применения искусственного интеллекта в профессиональной деятельности психологов

Психология
23.11.2025
68
Поделиться
Аннотация
Развитие искусственного интеллекта (ИИ) приводит к существенным изменениям в профессиональной деятельности практикующих психологов. Технологии ИИ повышают скорость обработки информации, расширяют возможности диагностики и консультирования, но одновременно формируют эмоциональные и когнитивные трудности, влияющие на адаптацию специалиста. Цель статьи заключается в анализе психологических механизмов восприятия ИИ, включая самоэффективность, техностресс, доверие к алгоритмам, цифровую компетентность и особенности профессиональной идентичности. Опираясь на исследования А. Н. Лебедева [10], Н. Е. Рубцовой и С. Л. Ленькова [11], И. Ф. Фрейманис и Д. Р. Фрейманиса [14] и зарубежных авторов [20, 21, 22], автор статьи выделяет факторы успешной интеграции ИИ в консультативную практику и анализирует риски, возникающие при использовании цифровых инструментов. Полученные выводы могут быть использованы при разработке образовательных программ и повышении цифровой готовности специалистов.
Библиографическое описание
Дабан, И. И. Психологические аспекты применения искусственного интеллекта в профессиональной деятельности психологов / И. И. Дабан. — Текст : непосредственный // Молодой ученый. — 2025. — № 48 (599). — С. 368-373. — URL: https://moluch.ru/archive/599/130431.


Актуальность исследования

Цифровизация профессиональной среды меняет структуру психологической помощи и усиливает необходимость интеграции ИИ в практику. Лебедев [10] отмечает, что современные алгоритмы позволяют обрабатывать большие массивы данных и повышают точность аналитических заключений. Однако Рубцова и Леньков [11] подчеркивают, что работа с ИИ требует развития цифровой компетентности и навыков критической оценки алгоритмических рекомендаций.

И. Ф. и Д. Р. Фрейманис [14] показывают, что чат-боты и интеллектуальные сервисы могут выполнять функции первичной поддержки, помогая собирать данные и структурировать запрос клиента. Вместе с тем А. Л. Катков и А. А. Чернова [7] акцентируют внимание на возрастающей эмоциональной нагрузке, связанной с необходимостью адаптироваться к быстрому технологическому изменению среды.

Согласно зарубежным исследованиям Long Ouyang и его коллег [20], восприятие ИИ определяется уровнем доверия к алгоритмам и субъективной уверенностью специалиста в их надежности. Monideepa Tarafdar, Christian Maier и Sven Laumer [22] указывают, что ограниченное понимание принципов работы моделей вызывает тревожность и снижает качество профессиональных решений.

Таким образом, актуальность исследования определяется необходимостью комплексного анализа факторов, влияющих на отношение психологов к ИИ, и изучения механизмов адаптации, обеспечивающих устойчивость профессиональной деятельности в условиях технологического развития.

Уровни регуляции восприятия ИИ

Процесс восприятия технологий искусственного интеллекта специалистом включает несколько уровней психологической регуляции. Каждый из них определяет особенности отношения к ИИ и влияет на профессиональную адаптацию. Наиболее значимыми являются эмоционально-регуляторный, мотивационно-ценностный и социально-профессиональный уровни.

Эмоционально-регуляторный уровень

Эмоциональные реакции специалиста на ИИ формируются под влиянием субъективной уверенности, опыта взаимодействия с цифровыми системами и способности контролировать собственные состояния. Исследования показывают, что использование ИИ может вызывать как снижение нагрузки за счет автоматизации рутинных операций, так и рост напряжения, связанного с неопределенностью и возможностью ошибок алгоритмов [23; 11].

Понимание принципов работы цифровой системы и наличие базовых навыков критической оценки данных значительно уменьшают эмоциональную напряженность и помогают сохранять устойчивость в процессе консультирования. Напротив, недостаток ясности в механизмах работы ИИ усиливает тревожность и может снижать качество профессиональных решений [22].

Мотивационно-ценностный уровень

На мотивационно-ценностном уровне формируются установки, определяющие отношение специалиста к технологическим изменениям. Рубцова и Леньков [11] отмечают, что позитивная ориентация на развитие и обучение способствует более активному освоению ИИ и повышает готовность включать алгоритмические инструменты в профессиональные процессы.

Если специалист воспринимает ИИ как дополнительный ресурс, расширяющий возможности консультирования, это усиливает внутреннюю мотивацию к его применению. Если же технологии рассматриваются как угроза профессиональной автономии или стабильности, возникает сопротивление и стремление опираться исключительно на традиционные методы [10; 7].

Таким образом, ценностные ориентации и профессиональные убеждения оказывают прямое влияние на готовность специалиста адаптироваться к цифровой трансформации.

Социально-профессиональный уровень

Социально-профессиональная среда формирует рамки, в которых происходит освоение технологий. Поддержка коллег, обмен опытом и наличие позитивных практик внедрения ИИ способствуют развитию доверия к алгоритмическим решениям и укрепляют уверенность специалиста [4]. В организациях, где цифровизация реализуется постепенно и сопровождается обучением, специалисты демонстрируют более высокий уровень принятия инноваций.

Катков и Чернова [7] подчеркивают, что отсутствие структурированной поддержки усиливает напряжение и может приводить к ошибкам, связанным с неуверенностью при использовании ИИ. Кроме того, профессиональные нормы и ожидания сообщества задают формирование отношения к этическим аспектам цифровой работы, что особенно важно при обработке чувствительных данных.

Таким образом, социально-профессиональный уровень определяет скорость интеграции ИИ в практику, степень доверия к алгоритмам и готовность специалиста применять цифровые инструменты.

Индивидуальные различия в адаптации к ИИ

Адаптация к технологиям искусственного интеллекта значительно различается у разных специалистов, даже при одинаковых профессиональных условиях. Индивидуальные различия определяются сочетанием личностных характеристик, опыта взаимодействия с цифровыми системами, уровня цифровой компетентности и особенностей когнитивных установок.

Одним из ключевых механизмов выступает субъективный контроль. Специалисты, воспринимающие цифровую среду как предсказуемую и управляемую, легче осваивают технологии и демонстрируют позитивное отношение к их применению [20]. Недостаток контроля усиливает тревожность и может приводить к избеганию ИИ.

Важную роль играет предшествующий опыт. Наличие успешного опыта использования технологий повышает уверенность и снижает сопротивление изменениям. Негативный опыт, напротив, усиливает техностресс, снижает доверие к алгоритмам и формирует осторожное отношение к новым инструментам [11].

Личностные особенности также определяют характер адаптации. Гибкость мышления, открытость новому и способность к саморегуляции связаны с более высокой готовностью пробовать цифровые инструменты и быстрее осваивать сложные функциональные системы. Такие выводы подтверждаются как отечественными, так и зарубежными исследованиями, посвященными психологическим аспектам технологической адаптации [11], [22].

Важным фактором является развитость рефлексивных навыков. Умение анализировать собственные реакции, осознавать причины возникающих трудностей и оценивать возможности ИИ позволяет специалисту выстраивать адаптивные стратегии поведения. Рефлексивность защищает от необоснованного доверия к алгоритмам и помогает сохранять критичность при принятии решений.

Таким образом, индивидуальные различия в адаптации к ИИ связаны с сочетанием когнитивных, личностных и эмоциональных факторов, которые определяют, станет ли цифровая трансформация источником профессионального развития или фактором напряжения.

Риски и ограничения использования ИИ в психологической практике

Использование технологий искусственного интеллекта в психологической практике сопровождается рядом ограничений, которые необходимо учитывать для безопасной и ответственной работы. Риски связаны как с особенностями функционирования алгоритмов, так и с профессиональными и этическими требованиями консультативной деятельности.

Одним из ключевых рисков выступает возможная неточность алгоритмических рекомендаций. И. Ф. и Д. Р. Фрейманис указывают, что модели ИИ могут ошибаться при анализе эмоциональных состояний или классификации запросов, если обучающие данные нерепрезентативны или содержат искажения [14]. Аналогичные выводы приводятся в зарубежных работах, где подчеркивается зависимость качества систем от качества исходных данных и архитектуры модели [20].

Серьезным ограничением является непрозрачность алгоритмов. В исследованиях отмечается, что сложности интерпретации работы моделей вызывают у психологов затруднения в понимании источника ошибки и снижают доверие к системе [22]. Это особенно важно в консультировании, где решение специалиста должно быть обоснованным, а алгоритмические выводы не всегда могут быть объяснены на уровне, понятном клиенту.

Значимым риском выступают вопросы безопасности данных. Катков и Чернова подчеркивают, что работа с ИИ требует особого внимания к защите персональной информации, поскольку цифровые системы обрабатывают чувствительные материалы, относящиеся к эмоциональному состоянию и личной истории клиента [7]. Нарушения конфиденциальности могут привести к негативным последствиям как для клиента, так и для специалиста.

Опасность может представлять и чрезмерное доверие алгоритмам. При высокой уверенности в цифровой системе специалист может снизить уровень критического анализа и рефлексии, что увеличивает вероятность ошибки в интерпретации данных. Исследования в области когнитивной психологии показывают, что автоматизированные решения нередко воспринимаются как более точные, чем они являются на самом деле [23], что создает риск недооценки профессиональной ответственности.

Ограничением является и невозможность полной автоматизации сложных психических процессов. Алгоритмы не способны учитывать индивидуальный жизненный контекст, глубину переживаний и субъективную значимость событий. Поэтому ИИ может служить поддерживающим инструментом, но не заменяет профессиональную интерпретацию и личное взаимодействие с клиентом [7; 10].

Таким образом, риски использования ИИ связаны с техническими, профессиональными и этическими факторами. Осознание этих ограничений позволяет строить взаимодействие с цифровыми инструментами так, чтобы сохранить качество консультативной помощи и обеспечить безопасность работы специалиста.

Пути повышения готовности специалистов к использованию ИИ

Повышение готовности специалистов к использованию технологий искусственного интеллекта становится необходимым условием профессиональной эффективности в условиях цифровизации. Готовность формируется за счет сочетания образовательных, организационных и психологических факторов, которые уменьшают неопределенность и помогают специалисту интегрировать ИИ в практику без риска для качества консультирования.

Одним из ключевых направлений выступает развитие цифровой компетентности. В работах Рубцовой и Ленькова подчеркивается, что понимание логики алгоритмов, умение интерпретировать цифровые рекомендации и способность оценивать ограничения моделей уменьшают тревожность и усиливают контроль над профессиональными решениями [11]. Повышение цифровой грамотности делает специалиста более устойчивым к технологическим изменениям и снижает вероятность ошибок.

Другим важным направлением является развитие навыков критического анализа. И. Ф. и Д. Р. Фрейманис отмечают, что способность оценивать точность алгоритмических выводов и сопоставлять их с клиническими наблюдениями повышает качество консультативного процесса [14]. Формирование таких навыков позволяет избежать чрезмерного доверия к автоматизированным системам и поддерживать профессиональную автономию.

Организационная поддержка также играет значимую роль. Согласно исследованиям Каткова и Черновой, обучение специалистов, предоставление методических рекомендаций и доступ к безопасным цифровым инструментам повышают уверенность в использовании технологий и уменьшают риск техностресса [7; 21; 22; 23]. Позитивные практики внедрения ИИ в профессиональной среде создают условия для обмена опытом и формирования устойчивой профессиональной позиции.

Важным направлением является и развитие эмоциональной устойчивости. Способность регулировать собственные реакции, сохранять спокойствие в условиях неопределенности и осознавать причины возникающего напряжения облегчает процесс адаптации и делает взаимодействие с технологиями менее стрессовым. Такие выводы подтверждают данные исследований, посвященных цифровой среде и нагрузке специалистов [21].

Дополнительное значение имеют этические ориентиры. Осознание вопросов конфиденциальности, понимание рисков обработки данных и соблюдение профессиональных стандартов повышают доверие к технологиям и поддерживают чувство ответственности за принимаемые решения. Эти навыки становятся частью профессиональной культуры и обеспечивают безопасное использование ИИ в консультативной практике.

Таким образом, повышение готовности специалистов к использованию ИИ требует комплексного подхода, включающего цифровое обучение, организационную поддержку, развитие критического мышления и эмоциональной устойчивости. Это позволяет специалистам эффективно интегрировать технологии в профессиональную деятельность, сохраняя качество консультирования и соблюдая этические стандарты.

Заключение

Развитие технологий искусственного интеллекта оказывает значимое влияние на профессиональную деятельность практикующих психологов. Алгоритмические системы расширяют возможности анализа данных, повышают эффективность консультирования и позволяют оптимизировать отдельные этапы работы. Однако интеграция ИИ сопровождается эмоциональными, когнитивными и организационными трудностями, которые формируют индивидуальные различия в адаптации специалистов.

Ключевыми факторами восприятия ИИ выступают самоэффективность, уровень техностресса, цифровая компетентность, особенности профессиональной идентичности и доверие к алгоритмам. Эти компоненты определяют, становится ли цифровая трансформация ресурсом профессионального развития или источником напряжения. Отдельную роль играют социально-профессиональные условия, включая поддержку коллег, организационные нормы и доступ к качественным цифровым инструментам.

Анализ исследований А. Н. Лебедева [10], Н. Е. Рубцовой и С. Л. Ленькова [11], И. Ф. Фрейманис и Д. Р. Фрейманиса [14], А. Л. Каткова и А. А. Черновой [7], а также зарубежных авторов [20; 22; 24] показывает, что успешная адаптация к ИИ требует сочетания цифровой грамотности, критического мышления, эмоциональной устойчивости и осведомленности об этических аспектах применения технологий. Комплексный подход к обучению специалистов, организационная поддержка и формирование профессиональной культуры безопасного использования ИИ создают условия для эффективной интеграции технологий в психологическую практику.

Таким образом, готовность специалистов к использованию ИИ выступает важным условием сохранения качества консультативной помощи и профессиональной устойчивости в период цифровых изменений. Формирование этой готовности необходимо рассматривать как приоритетное направление современного профессионального развития психологов.

Литература:

  1. Асеева И. А. Искусственный интеллект и большие данные: этические проблемы практического использования: аналитический обзор // Социальные и гуманитарные науки. Отечественная и зарубежная литература. Сер. 8, Науковедение. — 2022. — № 2. — С. 89–98. — DOI: 10.31249/naukoved/2022.02.02.
  2. Бадмаева М. Х. Социально-философские проблемы и принципы применения систем искусственного интеллекта : диссертация на соискание ученой степени кандидата философских наук по специальности «5.7.7. Социальная и политическая философия». — Улан-Удэ, 2023. — 237 с.
  3. Битехтина Л. Д. Диалог с ИИ (ChatGPT) под именем Нейрокот на тему консультирования в религиозном аспекте кризисных ситуаций // Психология и информационные технологии: перспективы взаимодействия. Материалы Всероссийской национальной научно-практической конференции (Владивосток, 27 сентября 2024 г.) / под ред. В. С. Чернявской. — Владивосток : Издательство ВВГУ, 2024. — С. 87–91.
  4. Богданович Н. В., Делибалт В. В. Цифровые компетенции психологов в области профилактики девиантного поведения // Цифровая гуманитаристика и технологии в образовании (DHTE 2022). Сборник статей III Всероссийской научно-практической конференции с международным участием, 17–18 ноября 2022 г. / под ред. В. В. Рубцова, М. Г. Сороковой, Н. П. Радчиковой. — Москва : Издательство МГППУ, 2022. — С. 282–296.
  5. Дедов Н. П., Комиссарова О. А., Кохова И. В., Петруня О. Э. Психологические особенности использования цифровых технологий в образовательной деятельности // Вестник евразийской науки. — 2023. — Т. 15. — № s1. — URL : https://esj.today/PDF/35FAVN123.pdf (дата обращения: 20.11.2025).
  6. Есенин Р. А. Психологические вызовы цифровой реальности: ИИ сегодня и его зона ближайшего развития // Профессиональное образование и рынок труда. — 2023. — Т. 11. — № 2. — С. 121–128. — URL : https://doi.org/10.52944/PORT.2023.53.2.009 (дата обращения: 20.11.2025).
  7. Катков А. Л., Чернова А. А. Искусственный интеллект в психотерапии и консультировании. — Литрес, 2025. — 209 с. — ISBN 978-5-0065-8864-6.
  8. Коновалова В. Г. Цифровые технологии как фактор техностресса: проблемы и возможности их решения // Управление персоналом и интеллектуальными ресурсами в России. — 2022. — № 3. — URL : https://cyberleninka.ru/article/n/tsifrovye-tehnologii-kak-faktor-tehnostressa-problemy-i-vozmozhnosti-ih-resheniya (дата обращения: 20.11.2025).
  9. Корж Е. М., Громова А. В. Потенциал применения технологий искусственного интеллекта в психологии // Системная психология и социология. — 2023. — № 2 (46). — С. 60–70. — DOI : 10.25688/22236872.2023.46.2.5.
  10. Лебедев А. Н. Искусственный интеллект и психология // Ученые записки Института психологии Российской академии наук. — 2023. — Т. 3. — № 2. — С. 6–22. — DOI : 10.38098/proceedings_2023_03_02_02. — URL : https://scientific-letters.ru/index.php/SLIPRAS/article/view/66 (дата обращения: 20.11.2025).
  11. Леньков С. Л., Рубцова Н. Е., Низамова Е. С. Опросник «Вовлеченность в сферу искусственного интеллекта» и его психометрические свойства // Ярославский педагогический вестник. — 2025. — № 1 (142). — С. 179–196. — DOI : 10.20323/1813–145X-2025–1-142–179. — URL : https://elibrary.ru/LXKAMJ (дата обращения: 20.11.2025).
  12. Моросанова В. И., Филиппова Е. В., Фомина Т. Г. Осознанная саморегуляция и академическая мотивация как ресурсы выполнения обучающимися проектно-исследовательской работы // Психологическая наука и образование. — 2023. — Т. 28. — № 3. — С. 47–61. — DOI : 10.17759/pse.2023280304. — URL : https://doi.org/10.17759/pse.2023280304 (дата обращения: 20.11.2025).
  13. Психология и информационные технологии: перспективы взаимодействия. Материалы Всероссийской национальной научно-практической конференции (г. Владивосток, 27 сентября 2024 г.) / под ред. д-ра пед. наук, проф. В. С. Чернявской. — Владивосток : Издательство ВВГУ, 2024. — 100 с. — ISBN 978-5-9736-0745-6.
  14. Фрейманис И. Ф., Фрейманис Д. Р. История создания чат-ботов: от идеи до использования в прикладной психологии // Russian Journal of Education and Psychology. — 2024. — Т. 15. — № 2. — С. 203–216. DOI : 10.12731/2658-4034-2024-15-2-484.
  15. Brynjolfsson E., McAfee A. The Second Machine Age. Boston: Harvard Business Press, 2020. URL: https://wwnorton.com/books/the-second-machine-age/ (дата обращения: 20.11.2025).
  16. Davenport T., Ronanki R. Artificial Intelligence for the Real World // Harvard Business Review. 2020. Vol. 98, no. 3. P. 108–116. URL: https://hbr.org/2018/01/artificial-intelligence-for-the-real-world (дата обращения: 20.11.2025).
  17. Hastie T., Tibshirani R., Friedman J. The Elements of Statistical Learning. New York: Springer, 2009. URL: https://www.stat.ntu.edu.tw/download/ %E6 %95 %99 %E5 %AD %B8 %E6 %96 %87 %E4 %BB %B6/bigdata/The %20Elements %20of %20Statistical %20Learning.pdf (дата обращения: 20.11.2025).
  18. Koh J., Tng G. Y. Q., Hartanto A. Potential and Pitfalls of Mobile Mental Health Apps in Traditional Treatment: An Umbrella Review // Journal of Personalized Medicine. 2022. Vol. 12, no. 9. Art. 1376. URL: https://doi.org/10.3390/jpm12091376 (дата обращения: 20.11.2025).
  19. Kurzweil R. The Age of Spiritual Machines. New York: Viking, 2000. URL: https://archive.org/details/ageofspiritualm000kurz (дата обращения: 20.11.2025).
  20. Ouyang L. et al. Training Language Models with Human Feedback // Advances in Neural Information Processing Systems. 2022. Vol. 35. URL: https://dl.acm.org/doi/10.5555/3600270.3602281 (дата обращения: 20.11.2025).
  21. Tarafdar M., Cooper C. L., Stich J.-F. The Technostress Trifecta: Techno Eustress, Techno Distress and Design: Theoretical Directions and an Agenda for Research // Information Systems Journal. 2019. Vol. 29, no. 1. P. 6–42.
  22. Tarafdar M., Maier S., Laumer S. Technostress: Measurement and Implications // MIS Quarterly. 2020. Vol. 44, no. 2. P. 427–447. URL: https://onlinelibrary.wiley.com/doi/10.1111/isj.12253 (дата обращения: 20.11.2025).
  23. Tarafdar M., Tu Q., Ragu-Nathan T. Technostress Creators and Job Outcomes: Theorising the Moderating Influence of Personality Traits // Information Systems Journal. 2021. Vol. 31, no. 4. P. 563–589. URL: https://www.academia.edu/127961861/Technostress_creators_and_job_outcomes_theorising_the_moderating_influence_of_personality_traits (дата обращения: 20.11.2025).
  24. Tegmark M. Life 3.0: Being Human in the Age of Artificial Intelligence. New York: Penguin Books, 2019. URL: https://www.cag.edu.tr/uploads/site/lecturer-files/max-tegmark-life-30-being-human-in-the-age-of-artificial-intelligence-alfred-a-knopf-2017-aTvn.pdf (дата обращения: 20.11.2025).
  25. Turing A. Computing Machinery and Intelligence // Mind. 1950. Vol. 59. P. 433–460. URL: https://courses.cs.umbc.edu/471/papers/turing.pdf (дата обращения: 20.11.2025).
Можно быстро и просто опубликовать свою научную статью в журнале «Молодой Ученый». Сразу предоставляем препринт и справку о публикации.
Опубликовать статью
Молодой учёный №48 (599) ноябрь 2025 г.
Скачать часть журнала с этой статьей(стр. 368-373):
Часть 6 (стр. 355-433)
Расположение в файле:
стр. 355стр. 368-373стр. 433
Похожие статьи
Психологические проблемы человека в век искусственного интеллекта
Профессиональная идентичность в цифровую эпоху: психологические аспекты профориентации
Искусственный интеллект и будущее трудовой деятельности
Влияние искусственного интеллекта на занятость и управление персоналом
Личностные особенности психолога, обуславливающие выбор траектории его развития как профессионала
Интеграция технологий искусственного интеллекта в образовательный процесс колледжа
Ментальные риски внедрения искусственного интеллекта в управление персоналом
Обзор зарубежных и отечественных компаний, использующих искусственный интеллект
Искусственный интеллект: перспективы развития и внедрения в различные сферы жизни человека
Автоматизация образовательного процесса: перспективы и вызовы использования искусственного интеллекта в цифровом обучении

Молодой учёный