https://philosophy.hse.ru/issue/feed Philosophy Journal of the Higher School of Economics 2026-01-09T21:20:01+03:00 Maria Marey mdyurlova@hse.ru Open Journal Systems Журнал «Философия. Журнал Высшей школы экономики» нацелен на выявление концептуальных оснований философских теорий, проработку их ключевых понятий, анализ методологии философского исследования. https://philosophy.hse.ru/article/view/30356 Философия. Журнал Высшей школы экономики. Том 9, №4 2025-12-29T19:29:36+03:00 Редакция журнала ВШЭ philosophy.journal@hse.ru <p>Дорогие коллеги!</p> <p>Позвольте представить четвертый выпуск девятого тома издания «Философия. Журнал Высшей школы экономики». Этот выпуск является продолжением междисциплинарного диалога, начатого в ходе международной дискуссии «Использование искусственного интеллекта для совершенствования системы ответственных исследований и инноваций», организованной Школой философии и культурологии в марте 2025 года. Дискуссия подчеркнула, как стремительное развитие ИИ бросает вызов концепции ответственных исследований и инноваций и требует, чтобы этическая рефлексия была усилена политической философией техники. Представленные статьи рассматривают ИИ как объект и как инструмент управления, затрагивая новые формы ответственности, риски технократизации и необходимость контекстно-зависимых, политически обоснованных и культурно плюралистических подходов к ответственным инновациям в многополярном мире.</p> <p><strong>Александр Михайловский</strong>&nbsp;и&nbsp;<strong>Елена Середкина</strong>&nbsp;предлагают критику концепции ОИИ/ОИ с позиций политической философии техники, которая исходит из недостаточности этики ИИ и ограниченности универсалистско-нормативистского подхода. На примере Китая и России авторы демонстрируют, что ответственность в сфере ИИ формируется в разных социально-культурных и политических контекстах. В качестве альтернативы предлагается концепция многополярной архитектуры ответственности (МАО), ориентированная на нормативный плюрализм и диалог национальных моделей управления технологиями. В статье&nbsp;<strong>Армина Грунвальда</strong>&nbsp;(Германия) показывается, что цифровизация и ИИ несут риск постепенных социальных «дисрупций» — утраты свободы, ответственности, навыков мышления и открытости будущего. Грунвальд обосновывает необходимость переориентации ответственных инноваций и оценки технологий на раннее выявление таких медленных, но разрушительных процессов.&nbsp;<strong>Ван Дачжоу</strong>&nbsp;(Китай) продвигает переход от инженерной этики, ориентированной на индивидуальное моральное суждение, к этической инженерии как новой дисциплине, встраивающей этические принципы в технологические системы и процессы управления. ИИ рассматривается одновременно как объект регулирования и как инструмент этического управления, позволяющий операционализировать ценности и обеспечивать проактивное, масштабируемое и рефлексивное управление перспективными технологиями.&nbsp;<strong>Дарья Быльева&nbsp;</strong>и<strong>&nbsp;Альфред Нордманн&nbsp;</strong>(Германия) постулируют, что ИИ подрывает концептуальные основы ОИИ, выступая в роли «онтолитической» силы — декомпозируя и перестраивая устоявшиеся категории авторства, культурной репрезентации и управления. Авторы считают, что концепция RRI должна преодолеть ограничения, связанные с ее изначальной западноцентричностью.&nbsp;<strong>Елена Труфанова</strong>&nbsp;обсуждает вопрос о доверии и ответственности как ключевую проблему применения ИИ; автор приходит к выводу, что их нельзя делегировать искусственным системам. Наконец,&nbsp;<strong>Пэн Чэн&nbsp;</strong>и<strong>&nbsp;Чжихуэй Чжан&nbsp;</strong>(Китай) переосмысляют ответственность в феноменологической перспективе, очерчивая механизмы управления для воплощенного ИИ, а&nbsp;<strong>Елизавета Карпова&nbsp;</strong>выступает за принцип распределенной моральной ответственности, которая, по ее мнению, точнее схватывает гибридный и сетевой характер современного принятия решений одновременно человеком и машиной.</p> <p>Раздел «Практическая философия» открывается статьей&nbsp;<strong>Андрея Шишкова</strong>, описывающей историю развития объектно-ориентированной онтологии; автор утверждает, что она не утратила своей значимости, оставаясь влиятельной школой мысли в рамках постконтинентальной философии. Узнать об «эпистемической несправедливости» можно из статьи&nbsp;<strong>Екатерины Алексеевой</strong>. Автор рассматривает различные медицинские контексты и показывает, что преодоление этой «фундаментальной эпистемологической проблемы» требует не только этической коррекции индивидуальных предубеждений, но и более радикальной трансформации институтов знания с целью интеграции разнообразных перспектив, включая «профанное» знание. Редукция знания к экспертному знанию — это не просто несправедливость, а, как считает Алексеева, «эпистемическое бедствие», ведущее к искаженной картине мира. В третьей статье раздела&nbsp;<strong>Андрей Кравцов&nbsp;</strong>рассматривает культурный трансфер как сложный процесс семиотической адаптации. В своем исследовании японского перевода «Преступления и наказания», созданного в эпоху Мэйдзи (1868–1912), Кравцов показывает, как христианско-экзистенциальные темы текста Достоевского трансформируются сквозь призму буддийско-конфуцианского синкретизма.</p> <p>В разделе «Публикации и переводы» представлена увлекательная беседа со&nbsp;<strong>Стеларком</strong> (Стелиосом Аркадиу), австралийским художником перформанса кипрского происхождения, известного радикальными экспериментами по расширению возможностей человеческого тела через технологии. В своем предисловии к этому эксклюзивному интервью 2024 года&nbsp;<strong>Олег Гуров</strong>&nbsp;анализирует художественную практику Стеларка, которая ставит под сомнение наши фундаментальные представления о человеческой идентичности и сознании в пронизанном технологиями мире.</p> <p>Выпуск завершается рецензией&nbsp;<strong>Жозе Вероссиму Тейшейра да Мата&nbsp;</strong>(Бразилия) на второе русское издание «Воображаемой логики» Н. А. Васильева (2025), которая проливает свет на мировое значение его работ в области неклассической логики.</p> <p>Счастливого Нового года и приятного чтения!&nbsp;</p> <p><em>А.В. Михайловский и Е.В. Середкина<br></em></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics https://philosophy.hse.ru/article/view/30351 Политическая философия техники и ответственные инновации в многополярном мире 2026-01-01T22:17:05+03:00 Александр Владиславович Михайловский amichailowski@hse.ru Елена Владимировна Середкина elena_seredkina@pstu.ru <p><span style="font-weight: 400;">Данная статья предлагает политико-философский подход к концепции ответственных инноваций (ОИ) и этического управления искусственным интеллектом (ИИ) в многополярном мире. В статье утверждается, что хотя ОИ обычно понимается как нейтральная и универсальная модель для согласования науки и техники с этическими и общественными ценностями, эта дискурсивная рамка остается глубоко укорененной в западных либерально-демократических представлениях о делиберативной политике, инклюзии и прозрачности. При попытке применить эти принципы в нелиберальных культурных и политических традициях они претерпевают существенные трансформации, указывая на ограничения нормативного универсализма. На основе сравнительного анализа китайского и российского подходов статья ставит под вопрос западные либерально-демократические основы ОИ и этического управления ИИ. Китайская модель, уходящая корнями в конфуцианские категории гармонии и добродетели, трактует ответственность как «моральную культуру», в то время как российский подход усматривает связь ОИ с общим благом и технологическим суверенитетом. В работе критикуется асимметричное восприятие обеих моделей управления ИИ, где китайская видится как централизованная, но гармоничная, а российская — как централизованная и государствоцентричная, и предлагается новое видение российского «суверенного ИИ» как системы сотрудничества, обеспечивающей диалог между государством, бизнесом и наукой: российский Кодекс этики ИИ (2021) является ярким примером междисциплинарного и межсекторального взаимодействия. Наконец, в статье вводится понятие многополярной архитектуры ответственности (МАО), которое обозначает пространство для реализации культурного разнообразия наций внутри общей гуманистической перспективы. Эта рамочная конструкция представляет науку и технологии как инструменты глобального сотрудничества, а не геополитической конкуренции.</span></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics https://philosophy.hse.ru/article/view/30343 От инженерной этики к этической инженерии 2026-01-01T22:17:56+03:00 Дачжоу Ван dzwang@ucas.ac.cn <p><span style="font-weight: 400;">Этическая инженерия (ЭтИн) — это формирующаяся дисциплина, представляющая собой смену парадигмы по сравнению с традиционной инженерной этикой (ИнЭт). В отличие от подхода, ориентированного в первую очередь на обучение отдельных специалистов, ЭтИн ставит целью системное внедрение этических принципов в саму структуру технологических систем и процессов управления. В статье анализируется переход от ИнЭт, ориентированной на обучение специалистов нормативным принципам, к ЭтИн, рассматривающей этику как инженерную задачу системного уровня, предполагающую трансляцию этических принципов в исполняемые инструменты управления. В исследовании подчеркивается двойственная роль ИИ как и основной области, требующей регулирования, и ключевого средства для его реализации, а также анализируется его потенциал для совершенствования этического управления через повышение проверяемости алгоритмов, поддержку сложного этического принятия решений и междисциплинарное коллаборативное управление. Одновременно рассматриваются такие вызовы, как обеспечение согласования ценностей, снижение рисков предвзятости и опасность технологического редукционизма. Работа выделяет восемь ключевых проблемных областей, формирующих ядро исследовательской повестки ЭтИн, и утверждает, что развитие этой дисциплины следует понимать как экспериментальный, итеративный процесс. Сформулированный парадигмальный сдвиг не только расширяет практические возможности реализации инженерной этики, но и предлагает новые методологические решения для этического управления развивающимися технологиями в эпоху ИИ.</span></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics https://philosophy.hse.ru/article/view/30344 Искусственный интеллект: ответственные инновации перед лицом потенциальных постепенных дисрупций 2026-01-01T22:17:39+03:00 Армин Грунвальд armin.grunwald@kit.edu <p><span style="font-weight: 400;">Данная статья рассматривает возможность постепенных дисрупций на уровне общества в целом в ходе стремительной цифровизации и распространения искусственного интеллекта (ИИ). Термин «дисрупция» означает внезапный распад привычных, ранее стабильных структур. Ожидания стабильности, предположения о преемственности и надежность планирования рушатся, окутывая будущие перспективы неопределенностью. Латинские корни этого термина означают «разрыв», «разлом» и «разрубание», семантически отсылая к временной структуре более или менее внезапных, резких событий. В этом свете упоминание о постепенной дисрупции в названии данной статьи кажется концептуально противоречивым или парадоксальным. Однако в мире технологий существует множество примеров дисрупций, которые были предварены заметными, но часто остававшимися без внимания признаками, в частности усталостью материалов и износом. Ежедневные нагрузки на многие технические объекты, такие как клиновые ремни в старых автомобилях или мостовые конструкции, постепенно приводят к их износу и деградации. В этом смысле понятие постепенной дисрупции отсылает к потрясениям со значительным или даже драматическим потенциалом ущерба, которые происходят не неожиданно и внезапно, как глобальная пандемия или землетрясение, а нарастают постепенно, пока, наконец, не приводят к разрушению ранее стабильных структур. В статье утверждается, что подобный тип потенциальной и постепенной дисрупции может возникнуть в сферах цифровизации и ИИ. Примерами служат растущая, но остающаяся незамеченной стандартизация человеческих действий, тихая утрата свободы и индивидуальности, растущая зависимость от бесперебойного функционирования цифровой инфраструктуры, потеря будущего как открытого пространства или утрата возможностей для рефлексии и обучения из-за безграничного ускорения. Возможность таких постепенных дисрупций ставит ряд вызовов перед ответственными исследованиями и инновациями (RRI), оценкой технологий (ТА) и этикой. К ним относятся эпистемологические проблемы (как обнаружить постепенные дисрупции на ранней стадии), этические вопросы (например, как оценивать опасения, связанные с принципом предосторожности), вопросы о необходимости принятия контрмер, а также проблемы коммуникации между иррациональным преувеличением и иррациональной тривиализацией. В заключительной части статьи будут рассмотрены возможные постепенные дисрупции, которые можно объяснить как техническими параметрами, так и человеческим поведением, и сделаны выводы для ТА и RRI.</span></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics https://philosophy.hse.ru/article/view/30336 Онтолитический эффект искусственного интеллекта 2026-01-09T21:20:01+03:00 Дарья Сергеевна Быльева bylieva_ds@spbstu.ru Альфред Нордманн nordmann@phil.tu-darmstadt.de <p><span style="font-weight: 400;">В данной статье рассматривается, как искусственный интеллект (ИИ) разрушает концептуальные основы ответственных исследований и инноваций (ОИИ). Мы утверждаем, что онтолитический потенциал ИИ — его способность декомпозировать и перестраивать устоявшиеся категории авторства, культурной репрезентации и управления — делает традиционные подходы к ОИИ неадекватными. Рассматривая роль генеративного ИИ в формировании и искажении культурной идентичности, мы демонстрируем, как эта технология функционирует одновременно как зеркало и агент общественных ценностей. Появление «национальных систем ИИ» еще больше усложняет эту ситуацию, встраивая определенные культурные и идеологические установки в технические инфраструктуры. ОИИ должны выйти за рамки своего западноцентричного происхождения. Они больше не могут оперировать последствиями нейтральной технологии, а должны ориентироваться в ландшафте, где ИИ одновременно является субъектом управления, агентом процесса управления и полем битвы за глобальное культурное и политическое влияние. Будущее ОИИ заключается в способности решить эту трехстороннюю задачу, способствуя созданию механизмов для подлинной эпистемической инклюзии в мире, где сама концепция ответственности подвергается цифровой деконструкции.</span></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics https://philosophy.hse.ru/article/view/30350 Надежность и ответственность как ключевые вопросы применения ИИ-систем 2026-01-01T22:17:22+03:00 Елена Олеговна Труфанова iph@etrufanova.ru <p><span style="font-weight: 400;">В статье дается попытка ответа на два вопроса: (1) что мы можем доверить делать искусственному интеллекту (ИИ)? (2) Кто несет ответственность за решения, предложенные ИИ? Показывается, что использование ИИ для решения различных задач кажется привлекательным, с одной стороны, за счет своей скорости и простоты, которые предполагают в том числе экономическую выгоду для пользователей, а с другой — за счет предполагаемой объективности и точности, присущих интеллектуальным машинам в отличие от субъективных и склонных к ошибкам людей. Демонстрируется, что простота и скорость использования ИИ далеко не всегда приносят выгоду, а точность и объективность ИИ являются иллюзорными. Обосновывается, что надежность ИИ может расцениваться как высокая только для ряда конкретных узких задач. Показывается, что нельзя говорить об ответственном ИИ, поскольку ответственность — это свойство субъекта, а ИИ субъектом не является. Рассмотрение ИИ-систем как самостоятельных субъектов или агентов может стать причиной становления технократии, где решения в самом прямом смысле будут приниматься техническими системами, но ответственность за них не будет возложена ни на кого. Обосновывается, что в вопросах, которые касаются жизни и благополучия людей, их свободы и иных базовых человеческих ценностей, решения могут приниматься только человеком и только человек будет нести за них ответственность. Преимущество эксперта-человека для решения таких вопросов видится в интерсубъективном восприятии другого человека и эмпатии, недоступных ИИ. Исходя из собственного человеческого опыта, эксперт способен увидеть те особенности конкретной проблемы, которые искусственная система учесть не может. Делается вывод, что проблема этичного, надежного и ответственного ИИ не техническая, а социальная — это проблема того, как человек может этично и ответственно использовать такой мощный и сложный инструмент, как ИИ. Этичность и ответственность — свойства человека, которые не могут быть делегированы искусственным системам.</span></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics https://philosophy.hse.ru/article/view/30354 Механизм формирования ответственности и логика этического управления в воплощенном искусственном интеллекте 2026-01-01T22:16:14+03:00 Пэн Чэн cheng80416519@126.com Чжихуэй Чжан zhangzhh@ihns.ac.cn <p><span style="font-weight: 400;">Статья посвящена проблеме «разрыва ответственности», возникающего в связи с интеграцией воплощенного искусственного интеллекта в сферу социальных взаимодействий. Отказываясь от функционалистских моделей, которые приравнивают агентность ИИ к моральному статусу личности, авторы принимают феноменологическую перспективу и переосмысливают ответственность как феномен, «проявляющийся» в отношениях. Предлагается трехстадийная модель возникновения воплощенной ответственности: перцептивная презентация, ситуативная включенность, этический призыв. На этой основе проводится философская реконструкция четырех измерений ответственных исследований и инноваций (ООИ) — антиципации, рефлексивности, инклюзивности, реагирования, которые трактуются как «структура проявления ответственности». Статья предостерегает от этических рисков антропоморфизации, уточняет принципиальную неспособность ИИ к эмпатии и моральной агентности и утверждает, что ответственность в конечном счете должна оставаться на стороне человека и быть институционализирована через соответствующие механизмы управления.</span></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics https://philosophy.hse.ru/article/view/30335 Алгоритмическая власть и моральная ответственность 2026-01-01T22:19:23+03:00 Елизавета Александровна Карпова ea.karpova@hse.ru <p><span style="font-weight: 400;">По мере того как системы искусственного интеллекта все активнее участвуют в принятии решений в таких сферах, как здравоохранение, право, финансы и национальная безопасность, традиционные представления о моральном агентстве и ответственности оказываются под серьезным давлением. Решения, ранее принадлежавшие исключительно человеческому суждению, все чаще формируются под воздействием алгоритмов, что вызывает вопросы о статусе человеческой агентности в условиях технологически опосредованных практик. В статье рассматриваются философские последствия феномена алгоритмической власти — возрастающего нормативного влияния алгоритмических систем на социальную и этическую жизнь. Рост алгоритмической власти ставит под сомнение адекватность классических моделей ответственности, основанных на представлении о четко определенном субъекте. Когда результаты возникают из взаимодействия человеческих намерений, институциональных структур и алгоритмов машинного обучения, границы подотчетности размываются. В качестве альтернативы предлагается концепция распределенной моральной ответственности, отражающая сетевой и гибридный характер совместного принятия решений человеком и машиной. Опираясь на современные теории агентности, социотехнических систем и этики, статья утверждает, что ответственность не исчезает, а трансформируется: она распределяется между разработчиками, пользователями, институтами и алгоритмами как посредниками. Такой подход обеспечивает более адекватное понимание подотчетности и формирует нормативные ориентиры, необходимые в условиях алгоритмического управления.</span></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics https://philosophy.hse.ru/article/view/30342 Краткая история становления объектно-ориентированной онтологии 2026-01-01T22:18:12+03:00 Андрей Владимирович Шишков andrey.v.shishkov@gmail.com <p><span style="font-weight: 400;">Статья посвящена истории становления объектно-ориентированной онтологии (ООО) — школы постконтинентальной философии, основанной Грэмом Харманом в конце 1990-х годов. В ней предлагается периодизация эволюции ООО, начинающаяся с ее возникновения как самостоятельного проекта Хармана (1997–2006). Второй период (2007–2011) охватывает роль ООО в движении спекулятивного реализма и формирование ее канонического квартета — Хармана, Леви Брайанта, Иена Богоста и Тимоти Мортона. Третий, текущий период (2011–по наст. время) детализирует институционализацию ООО и ее активную экспансию за пределы философии в такие области человеческой мысли и практики, как экология, искусство, архитектура, археология и религия. В заключении автор оценивает нынешнее состояние ООО, отмечая признаки внутренней диверсификации среди ее участников, и в то же время утверждая ее прочное наследие как самостоятельной и влиятельной школы мысли, которая успешно бросила вызов антропоцентрической парадигме в континентальной философии. Автор также выдвигает гипотезу о возможном начале нового, четвертого этапа в ее развитии.</span></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics https://philosophy.hse.ru/article/view/30341 Проблема эпистемической несправедливости и многоагентная модель эпистемического разнообразия 2026-01-01T22:18:32+03:00 Екатерина Алексеевна Алексеева eaalekseeva@gaugn.ru <p><span style="font-weight: 400;">В данной статье эпистемическая несправедливость рассматривается как фундаментальная эпистемологическая проблема, подрывающая возможность получения достоверного и полного знания. Автор рассматривает различные формы эпистемической несправедливости, включая свидетельскую, герменевтическую, ситуативную, инвертированную и взаимную, демонстрируя, как эти явления проявляются в медицинском контексте и за его пределами. В статье представлена многоагентная вычислительная модель, реализованная в NetLogo, которая имитирует принятие медицинских решений посредством байесовской эпистемологии с участием четырех типов эпистемических агентов: пациентов, врачей, экспертов и менеджеров. Результаты подтверждают аргумент о том, что эпистемическое разнообразие — это не просто проблема социальной справедливости, а эпистемологическая необходимость, согласующаяся с веристской социальной эпистемологией (Голдман), перспективным реализмом (Массими) и агентным реализмом (Барад). В статье делается вывод о том, что преодоление эпистемической несправедливости требует не только этической коррекции индивидуальных предубеждений, но и более радикальной трансформации институтов знания для интеграции различных точек зрения при сохранении критической дифференциации эпистемической компетентности.</span></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics https://philosophy.hse.ru/article/view/30352 Мораль без субъекта 2026-01-01T22:16:49+03:00 Андрей Дмитриевич Кравцов drewkrav@gmail.com <p><span style="font-weight: 400;">В статье исследуется феномен культурного трансфера литературного произведения как сложного процесса семиотической адаптации, в котором сталкиваются не только языковые структуры, но и глубинные онтологические парадигмы. На материале японского перевода романа Ф.М. Достоевского «Преступление и наказание» периода Мэйдзи анализируются механизмы трансформации христианско-экзистенциальной проблематики оригинала под влиянием буддийско-конфуцианского синтеза. Исследование фокусируется на семантических кластерах («страдание», «совесть», «судьба») и их онтологическом перекодировании: от христианского провиденциализма к буддийскому учению о пустоте, от экзистенциальной рефлексии к конфуцианской этике долга. Методологическая рамка сочетает корпусный анализ с принципами сравнительной философии, вводя понятия «семантической плотности» и «культурного индекса» как количественных маркеров ценностных приоритетов. Автор демонстрирует, как русский экзистенциализм, встречаясь с дзэнской концепцией небытия, порождает гибридные формы: «отчаяние» Раскольникова переосмысляется через отрешенность, христианская «совесть» трансформируется в конфуцианскую врожденную добродетель, а линейная темпоральность романа растворяется в циклической модели непостоянства времени. Философская значимость исследования заключается в раскрытии перевода как творческого акта созидания новой философской реальности, где диалог идет не на уровне заимствований, а через глубинное преображение смыслов. Переводческая практика эпохи Мэйдзи предстает как пространство рождения гибридных онтологий, отражающих сложный процесс модернизации японского общества через синтез традиционных ценностей и западных влияний.</span></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics https://philosophy.hse.ru/article/view/30353 Преодоление границ 2026-01-01T22:16:31+03:00 Олег Николаевич Гуров o.gurov@inno.mgimo.ru <p><span style="font-weight: 400;">На протяжении половины столетия художник Стеларк проводит радикальные художественные эксперименты, разнообразными способами совмещая аспекты человеческой биологии с технологическими системами. Данная работа, в основе которой лежат материалы эксклюзивного интервью с художником, взятого в сентябре 2024 года, а также результаты анализа его творчества, представляет собой попытку систематизировать художественные практики Стеларка с точки зрения динамики определения человеческой идентичности и возможностей человека. Путем детального исследования его различных проектов и перформансов показывается, как работы Стеларка воплощают развитие постгуманистической и трансгуманистической философии. Радикальный взгляд художника направлен на то, что человечество уже вступило в постэволюционную фазу, в которой развитие человека обусловлено в большей степени технологическим проектированием, нежели естественным отбором. В рамках исследования сделан обзор художественного пути Стеларка, его творчество представлено в хронологическом порядке: от ранних перформансов с подвешиванием тела до современных роботизированных инсталляций, что позволило наглядно показать последовательность исследовательских проектов художника в части изучения разных аспектов интеграции человека и машины. При этом отдельное внимание уделяется недавним работам Стеларка, посвященным проблематике распределенной телесности и интеграции искусственного интеллекта в общественную жизнь и природу человека. В статье показано, что творчество Стеларка объединяет искусство, философию и технологические инновации беспрецедентным образом, в результате чего новые концепции сопровождаются осязаемой и нередко провокационной демонстрацией возможных перспектив «человеческого». Делается вывод, что посредством смелых перформансов и физических модификаций Стеларк вносит вклад в междисциплинарную дискуссию о сознании, телесности и идентичности человека в мире, становящемся все более технологизированным.</span></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics https://philosophy.hse.ru/article/view/30355 Развитие идей Васильева и паранепротиворечивой логики в России и за ее пределами 2026-01-01T22:15:56+03:00 Жозе Вериссимо Теишейра да Мата joseverissimo@terra.com.br <p><span style="font-weight: 400;">Рецензия на: </span><em><span style="font-weight: 400;">Васильев Н.А.</span></em><span style="font-weight: 400;"> Воображаемая логика. Избранные труды / под ред. В.А. Бажанова. — М. : Канон+, 2025.</span></p> 2025-12-26T00:00:00+03:00 Copyright (c) 2025 Philosophy Journal of the Higher School of Economics