"Практическая полиграфия: Введение в новую модельную политику использования алгоритмов в судебных полиграфологических экспертизах" (Раймонд Нельсон, Дональд Дж. Краполь, 2024)
Судебные полиграфологические экспертизы (evidentiary polygraph examinations) — это тесты, результаты которых используются в качестве доказательств в суде. В отличие от обычных полиграфных проверок, где важна информация из интервью, судебные экспертизы требуют четкого обоснования результатов, включая вероятностные выводы и научную базу.
Однако анализ психофизиологических данных (например, изменений дыхания, пульса, кожной проводимости) зависит от человеческого фактора:
Эти факторы снижают надежность и валидность результатов, создавая риски для судебной практики.
Американская ассоциация полиграфологов (APA) разработала Модельную политику по применению алгоритмов в судебных экспертизах (Model Policy for Algorithm Use in Evidentiary Polygraph Examinations, 2024), чтобы:
Исследования показывают, что алгоритмы анализа полиграфных данных могут превосходить человеческих экспертов по точности и согласованности (Blackwell, 1999; Honts et al., 2015; Kircher & Raskin, 1988 и др.). Ключевые плюсы:
Однако этическое применение алгоритмов требует:
Политика APA определяет роли человека и алгоритма в судебной экспертизе:
А. Дополняющая роль алгоритмов
Б. Требования к прозрачности и валидации
Разработчики алгоритмов обязаны раскрывать:
В. Разрешение расхождений в результатах
Если разные методы анализа (например, алгоритм и эксперт) дают противоречивые результаты, политика требует:
Модельная политика направлена на: ✅ Повышение доверия к полиграфным экспертизам в судах. ✅ Стандартизацию использования алгоритмов. ✅ Снижение субъективности и повышение справедливости судебных решений.
Авторы подчеркивают, что алгоритмы — это инструмент, а не замена эксперту. Их грамотное внедрение может значительно улучшить качество судебных полиграфологических экспертиз, но требует прозрачности, обучения и соблюдения этических норм.
Вывод
Новая политика APA — это шаг к интеграции технологий в судебную полиграфологию без утраты роли человеческого эксперта. Алгоритмы способны повысить точность и объективность, но их применение должно быть регулируемым, прозрачным и этичным, чтобы соответствовать стандартам доказательной базы в судах.
Источник: Nelson, R., & Krapohl, D. J. (2024). Practical Polygraph: Introduction to the Newly Approved Model Policy for Algorithm Use in Evidentiary Polygraph Examinations. APA Magazine, 57(2), 88–91.
Философия и дух СППРП "Сокол" целиком и полностью соотвествуют положениям этой статьи. Если кто то следил за тем, что я писал на рзных площадках ещё с 2021 года, то он должен узнать в этом резюме мои слова об .... Перечислять нет смысла, я писал буквально то же самое, что содержится в каждом пункте резюме.
"Практическая полиграфия: Интеграция автоматизированных алгоритмов анализа данных с экспертными решениями человека"
(Раймонд Нельсон, 2024)
Современные технологии (мощные микрокомпьютеры, генеративные алгоритмы) прочно вошли в большинство научных и профессиональных областей, кроме полиграфии. Несмотря на:
Полиграфология по-прежнему опирается на субъективные ручные методы (визуальная оценка графиков), игнорируя автоматизированные алгоритмы.
Причины сопротивления:
Автоматизированные алгоритмы способны решить ключевые проблемы полиграфии:
| Проблема | Решение алгоритмов |
|---|---|
| Субъективность | Исключают влияние человеческих предубеждений, усталости, эмоций. |
| Низкая воспроизводимость | Обеспечивают консистентность (один и тот же набор данных → одинаковый результат). |
| Обработка сложных данных | Могут адаптироваться к нестандартным случаям (например, пациенты с психическими расстройствами). |
| Эффективность | Быстрая обработка больших объемов данных, сокращение времени анализа. |
| Стандартизация | Повышение надежности (первый шаг к улучшению валидности). |
Пример: Как конвейер Форда повысил надежность производства, так и алгоритмы могут улучшить качество полиграфных экспертиз.
Несмотря на преимущества, алгоритмы не идеальны:
| Риск | Как минимизировать? |
|---|---|
| Алгоритмические ошибки | Прозрачность кода, валидация на размеченных данных, постоянный мониторинг. |
| Смещение (bias) | Дебаггинг алгоритмов, сравнение с человеческими оценками, учет контекста. |
| Конфиденциальность данных | Жесткие политики безопасности, шифрование, ограничение доступа. |
| Чрезмерное доверие | Алгоритмы — инструмент, а не замена эксперта. Человек остается ответственным. |
Критическая проблема: Если алгоритмы не справляются с "сложными" данными (например, у пациентов с психическими расстройствами), это может поставить под сомнение надежность всего метода.
Автоматизация не отменяет, а переопределяет роль полиграфолога:
| Традиционная роль | Новая роль в автоматизированной системе |
|---|---|
| Аналитик данных | Супервайзер качества: контроль работы алгоритмов, выявление аномалий. |
| Интерпретатор результатов | Контекстуализатор: учет поведения испытуемого, формулировки вопросов, физиологических особенностей. |
| Этический контролер | Гарант беспристрастности: предотвращение алгоритмических предубеждений. |
Ключевой принцип: Человек остается финальным арбитром, ответственным за принятие решений, влияющих на жизни людей.
Для успешного внедрения автоматизации необходимы:
1 Образование и компетенции:
2 Прозрачность и валидация:
3 Этическая рамка:
4 Баланс между автоматизацией и экспертизой:
Автоматизация в полиграфии — это не угроза, а возможность решить давние проблемы субъективности и низкой воспроизводимости. Однако ключ к успеху — грамотная интеграция:
Цитата из статьи:
Источник: Nelson, R. (2024). Practical Polygraph: Integrating Automated Data Analysis Algorithms with Human Expert Decision Making. APA Magazine, 57(1), 40–43.
Это ещё одна статья того же автора на ту же тему. Похоже у американцев это стало широко обсуждаемой темой - использование алгоритмов. автоматизация и т.п. Они идут вперёд.
Два небольших, но связанных замечания к статье. Первое относительно традиционной роли человека (полиграфолога) в качестве аналитика данных. Тут явное преувеличение. Арифметические операции с баллами (плюс-минус) называть аналитикой данных это более чем громко, и может вводить в заблуждение.
Второе замечание касается успешной интеграции алгоритмов в практику. Основное препятствие к этому является пункт первый - образование и компетенции. Если б полиграфологи действительно занимались аналитикой данных, имея соответствующие компетенции, то принятие алгоритмов в практику, автоматизация этой деятельности ими безусловно бы приветствовались.
Повышение надежности, валидности и справедливости полиграфных экспертиз без утраты человеческого контроля.✅👉👉👉
Концептуальная основа для оценки дыхательных реакций или «В поисках пневмо»
В статье "A Conceptual Framework for Scoring Breathing Responses" авторы Дональд Дж. Крапол и Донни У. Даттон предлагают концептуальную основу для оценки дыхательных реакций в полиграфических тестах, объясняя физиологические механизмы и обосновывая подходы к интерпретации пневмограмм.
Авторы предлагают рассматривать дыхательные изменения через призму выживания человека как вида:
- В древности наши предки (охотники-собиратели) реагировали на угрозы или потенциальную добычу активацией симпатической нервной системы ("бей или беги").
- Одним из ключевых адаптивных механизмов было затихание дыхания (замедление, подавление амплитуды), чтобы лучше слышать и оставаться незамеченным.
- Эта реакция закрепилась генетически, так как повышала шансы на выживание и передачу генов потомству.
Все валидные признаки обмана связаны с затиханием дыхания:
- Замедление (снижение частоты).
- Подавление (уменьшение амплитуды).
- Апноэ (остановка дыхания).
- Прогрессивное снижение амплитуды.
- Временное повышение базовой линии (подавление на выдохе).
- Изменение соотношения вдох/выдох (проявление замедления).
Невалидные признаки (усиление амплитуды или учащение дыхания) обычно не связаны с обманом.
Дыхательные реакции при обмане — это эволюционно закрепленный механизм затихания дыхания для повышения шансов на выживание. Все диагностически значимые признаки в пневмограмме связаны с этим феноменом, а объективные методы (RLL, RLE) могут улучшить точность оценки, если учитывать возможные искажения.
Источник: "A Conceptual Framework for Scoring Breathing Responses or “Finding Pneumo”" Авторы: Donald J. Krapohl, Donnie W. Dutton (APA Magazine 2024, 57(6)).
"Затаивание дыхания" по уменьшению ДЛД совершенно отчётливо видно в ТЗВ, которые проводятся по реальным делам. когда разоблачение грозит ОЛ серьёзными последствиями.
Вопрос: Что Мы Узнали О Компьютерных Алгоритмах
Статья Джареда Роквуда из журнала APA Magazine (2024) посвящена анализу роли компьютерных алгоритмов в полиграфии, сравнению их эффективности с традиционной ручной оценкой результатов тестирования и обсуждению сопротивления профессионального сообщества внедрению новых технологий.
Исторический контекст: луддиты и сопротивление технологиям
Автор начинает с истории движения луддитов — рабочих начала XIX века, протестовавших против автоматизации текстильной промышленности. Их действия стали символом сопротивления технологическому прогрессу. Аналогичные опасения возникают и сегодня в связи с развитием искусственного интеллекта (ИИ) и автоматизацией в различных сферах, включая полиграфию.
Дебаты о компьютерных алгоритмах в полиграфии
В полиграфическом сообществе давно ведутся споры о целесообразности использования компьютерных алгоритмов для анализа данных. Рэй Нельсон в предыдущих статьях журнала отмечал, что автоматизированные системы:
- Способны выявлять тонкие закономерности, недоступные человеку из-за усталости, когнитивных искажений или субъективности.
- Требуют вмешательства эксперта для фильтрации артефактов (посторонние шумы, дыхание, движения испытуемого).
- Показывают результаты, сопоставимые или превосходящие оценки опытных специалистов.
Основная критика алгоритмов связана с недоверием к "черному ящику" — отсутствием прозрачности в процессе вычислений. Многие эксперты испытывают дискомфорт, когда компьютерная оценка расходится с их собственной.
Автор предлагает при расхождении оценок классифицировать результат как неопределенный (IC), что увеличило бы общий уровень IC до 4,8%.
Выводы и рекомендации
- Миф о высоком уровне расхождений: Многие эксперты переоценивают частоту расхождений между ручной и компьютерной оценками из-за психологического эффекта — запоминаются именно конфликтные случаи.
- Преимущества алгоритмов: Компьютерные системы снижают субъективность, повышают точность и помогают разрешать неопределенные результаты.
- Необходимость изменений: Автор призывает коллег преодолеть "луддитские" настроения и активнее использовать алгоритмы. Он подчеркивает, что отказ от лучших доступных технологий может подорвать доверие к профессии.
- Практическая рекомендация: Каждую полиграмму следует оценивать как вручную, так и с помощью компьютерного алгоритма. Это не требует дополнительных затрат (инструменты уже встроены в ПО), но повышает качество анализа.
Заключение
Автор признает, что сопротивление автоматизации — естественная реакция на изменения, но данные показывают, что алгоритмы работают эффективно. Интеграция компьютерных методов не отменяет необходимость экспертной оценки, но делает ее более объективной. Внедрение таких технологий может укрепить легитимность полиграфии как научной дисциплины и повысить доверие к ней со стороны широкого научного сообщества.
Источник: QC: What We Have Learned About Computer Algorithms Автор: Jared Rockwood (APA Magazine 2024, 66).
Ещё одна статья про компьютерный алгоритмы, но уже с результатами исследований. Удивляет оценка согласованности результатов экспертов и алгоритмов. Рассхождение всего 1,5%. Почти ничего. В этом же журнале есть статья в которой изучалась согласованность решений экспертов и вывод там не очень "красивый". Если между экспертами большон расхождение, то откуда такая согласованность с математическими алгоритмами? ...Надо делать полные переводы статей и изучать, что за числа и как получены.
Разница в оценках экзаменатора “Это из-за правил, школ или данных”?
Основная проблема: В статье исследуется значительный разброс (вариативность) в результатах ручной оценки полиграфологами (hand scoring) тестов с контрольными вопросами (CQT). Этот разброс ставит под сомнение объективность и надежность принятия решений на основе полиграфа.
Источник проблемы: Автор, Дж. Патрик О'Берк, ссылается на мета-анализ Американской ассоциации полиграфологов (APA), который показал большой разброс средних баллов в разных исследованиях. Он предполагает, что причиной могут быть: 1) различия в интерпретации правил оценки, 2) различия в обучении в разных школах полиграфологов, 3) качество самих физиологических данных.
Исследование 2021 года:
* Цель: Определить, насколько вариативность вызвана именно субъективностью экспертов.
* Метод: 103 полиграфолога вслепую оценили три заранее верифицированных теста (правда, ложь, неопределенный результат) с разным качеством данных.
* Результаты:
* По верифицированным тестам (правда/ложь) эксперты показали 100% согласие в итоговом решении, но разброс в баллах был значительным (стандартное отклонение ~2.8).
* По неопределенному тесту согласие было только у 80% экспертов, а 20% ошибочно вынесли категоричное решение.
* Эксперты полностью согласились только в 19 из 54 оценок конкретных физиологических реакций. Наибольшие разногласия были по кардио- и пневмо- (дыхание) компонентам, особенно при среднем или низком качестве данных.
Фокус-группа 2024 года:
* Цель: Углубиться в причины разногласий, задавая экспертам вопросы "почему?".
* Метод: 31 участник (новички и опытные) оценивали специально отобранные проблемные фрагменты записей.
* Ключевые выводы:
1. Правила: Существует разная интерпретация правил Эмпирической системы оценки (ESS), особенно касающихся "своевременности реакции" и "визуальной различимости".
2. Обучение: Разные школы по-разному преподают ESS (только визуальная оценка, только компьютерные алгоритмы, комбинированный подход).
3. Опыт: Опытные эксперты чаще отмечали артефакты как причину для отказа от оценки, особенно в дыхательном канале. Новички чаще просто ставили "0". Также у опытных экспертов наблюдался больший разброс в оценках сложных фрагментов.
4. Качество данных: Эксперты гораздо увереннее оценивают данные высокого качества. При среднем или низком качестве согласие резко падает.
Основные выводы и рекомендации автора:
1. ESS — элегантная, но неидеальная система. Она перекладывает бремя принятия решения на эксперта, что приводит к субъективности.
2. Необходима стандартизация обучения. Аккредитующим органам (например, комитету по образованию APA) следует обеспечить единообразие в преподавании методик анализа данных.
3. Компьютерные инструменты — помощник, а не замена. Автоматические измерения (особенно дыхания) должны поддерживать решение эксперта, предоставляя объективные данные, а не заменять его. Человек лучше определяет "некачественные" данные и артефакты.
4. Нужна классификация качества данных. Автор настаивает на внедрении четких критериев для отнесения данных к категориям "высокое", "среднее" и "низкое" качество, что упростит принятие решений.
5. Разброс влияет на результаты. Эта вариативность может критично влиять на итог в сложных многопроблемных тестах или когда итоговый балл близок к пороговому значению.
Итог: Статья указывает на системную проблему субъективности в ручной оценке полиграмм. Для повышения надежности и репутации метода необходимы: унификация обучения, четкие стандарты качества данных и разумное использование компьютерных инструментов для поддержки, а не замены, экспертного решения.
Источник: Variance in Examiner Hand Scoring “Is it the rules, the schools or the data”? Автор: J. Patrick OBurke APA Magazine 2024, 57 (6)