Фейковое интервью с главой одного из регионов РК появилось в прошлом месяце в Интернете. Власти вынуждены были объясняться.
Что делать с кибермошенниками? Впервые экспертом в нашей рубрике выступает сам искусственный интеллект.
«Ограничить доступ третьих лиц»
Александр ШЕРЦЕР, магистр педагогики, учитель информатики высшей квалификации АОО НИШ ФМН г. Костанай:
– Что попало в Сеть, удалить сложно, а порой невозможно. Сбор, хранение, обработка и использование информации, в особенности биометрических данных, является актуальным не только в вопросах этики, но и в вопросах законного регулирования. С моей точки зрения, лучший способ предотвратить такие события развития киберпреступлений в целом – не размещать в Сети личных данных, делать их максимально конфиденциальными, невозможными для обработки с помощью ИИ и машинного обучения. Сделать это можно не только приватными аккаунтами, но и, например, намеренно размещать фото и видео в ракурсах, невозможных для обработки, ограничивать доступ третьих лиц к загрузке аудио- и видеоматериалов с сайтов и видеохостингов различных СМИ. DeepFake легко обнаружить по неестественной мимике и чертам лица, отсутствию мимических морщин, морганий, или слишком четким контурам. Даже отсутствие слов и местоимений-паразитов в прямой устной речи – повод задуматься о том: а естественен ли человек? В остальном, как бы ни было банально, нужно доверять только официальным источникам, особенно, если это касается исполнительной и законодательной власти.
«Плюс воспитание порядочности»
Всеволод БОЛГЕРДТ, выпускник Костанайского пединститута и Университета прикладных наук г. Кобленца ФРГ:
– Честным искусственный интеллект не сделать – надо работать над интеллектом потребителей информации. С помощью ИИ достаточно просто сделать очень правдоподобные фейки, но с ним можно бороться, повышая информационную грамотность населения. Плюс воспитание с детских лет порядочности и личного достоинства.
«Вот ключевые шаги»
Искусственный интеллект:
– Сделать ИИ полностью честным – сложная задача, так как честность зависит от множества факторов. Вот ключевые шаги, которые могут помочь:
1. Качественные и непредвзятые данные. Необходимо использовать проверенные данные и регулярно их аудитировать;
2. Прозрачность алгоритмов. Это помогает выявлять и устранять манипуляции;
3. Этичные принципы разработки. Необходимо установить строгие этические стандарты, такие как справедливость, подотчетность и уважение к пользователям;
4. Независимый аудит. Регулярная проверка ИИ сторонними организациями может выявить ложные выводы;
5. Обратная связь от пользователей позволит анализировать жалобы и запросы на уточнение;
6. Ограничение манипуляции: ИИ не должен быть запрограммирован на намеренное искажение фактов.