Израильский страховой стартап похвастался использованием ИИ для выявления лжецов – и вызвал волну возмущения

Израильский страховой стартап похвастался использованием ИИ для выявления лжецов – и вызвал волну возмущения
фото показано с : nep.co.il

2021-5-27 20:58

Lemonade Insurance Company, основанный израильтянами страховой стартап, опубликовал в среду, 26 мая пост в соцсети Твиттер, в котором похвастался тем, что использует алгоритмы искусственного интеллекта для изучения видеозаписей клиентов на предмет «невербальных сигналов» о том, что их претензии являются мошенническими.

googletag.cmd.push(function() { googletag.display("ros_inArticle_video"); });

Lemonade Insurance Company представляет собой онлайн-платформу с использованием искусственного интеллекта для оказания страховых услуг. В основе идеи компании лежит минимизация использования человеческих ресурсов и максимальное использование чат-ботов и систем искусственного интеллекта. Платформа позволяет оформить страховку онлайн за 90 секунд и получить покрытие по ней в течение 3 минут.

Компания была основана израильтянами в США шесть лет назад и размещение ее акций на Нью-Йоркской фондовой бирже 2 июля прошлого года стало одним из наиболее успешных на Уолл-стрит.

Lemonade гордится тем, что предоставляет людям более простой и легкий способ подать иски о страховании домашних животных, дома и жизни. Клиенты разговаривают с чат-ботом, отправляют заявку, и решение о том, сколько он должен им заплатить, можно принять за несколько минут. «Когда пользователь подает иск, он записывает видео на свой телефон и объясняет, что произошло. Наш ИИ тщательно анализирует эти видео на предмет мошенничества. Он может улавливать невербальные сигналы, которые традиционные страховщики не могут, поскольку они не используют цифровой процесс обработки исков», — говорилось в серии твитов, которые с тех пор были удалены.

googletag.cmd.push(function() { googletag.display("ros_inArticle_cube"); });

Пользователи сети раскритиковали технологию Lemonade, обвинив ее в потенциальной предвзятости и зависимости от неубедительного анализа настроений и эмоций. Заявление компании возмутило прежде всего потому, что на данном этапе не существует технологии, позволяющей достоверно определить, когда человек лжет. И потому для страховой компании очень проблематично использовать подобные технологии для принятия решений по страховым искам своих клиентов.

Во-вторых, существуют серьезные этические проблемы: можно ли дать искусственному интеллекту право судить, является ли человек лжецом, и принимать решения о его или ее характере на основе физических характеристик? Как можно гарантировать, что такая технология, например, не будет дискриминировать людей с дефектами речи или людей с темным оттенком кожи - как это было доказано в прошлом с системами искусственного интеллекта.

Использование программного обеспечения машинного обучения для автоматизации процессов принятия решений о принятии или отказе в предоставлении клиентам кредита или страховых выплат является особенно чувствительным. В прошлом месяце американская комиссия по надзору за потребителями, FTC, выпустила строго сформулированное предупреждение о незаконности использования алгоритмов, которые в конечном итоге приводят к дискриминации людей по признаку расы, цвета кожи, религии, национального происхождения, пола, семейного положения и возраста при принятии финансовых решений.

Публикация вызвала бурю, и компания поторопилась удалить публикацию, поясняя при этом, что из-за неудачной формулировки произошло недопонимание.

googletag.cmd.push(function() { googletag.display("ros_inArticle_cube_2"); });

«В Твиттере прошла обширная дискуссия по поводу нашего плохо сформулированного твита (в основном это касается термина «невербальные сигналы»), что привело к путанице в отношении того, как мы используем видео клиентов для обработки исков», — сообщила компания. «Были также вопросы о том, используем ли мы такие подходы, как распознавание эмоций (мы этого не делаем), и используется ли ИИ для автоматического отклонения заявлений (никогда!)»

«Мы не используем и не пытаемся создать ИИ, который использует физические или личные функции для опровержения заявлений», — повторилось в нем.

Опровержение компании удовлетворило не всех. Как написала в Твиттер журналист CNN Рейчел Метц (Rachel Metz), вопреки заявлению Lemonade о том, что она не позволяет алгоритмам ИИ автоматически отклонять иски, в проспекте эмиссии, который компания представила перед IPO в прошлом году, она фактически прямо заявила, что ее бот «запускает процесс запроса и оплачивает или отклоняет его без вмешательства человека».

Так или иначе, инвесторов заявление компании о возможностях борьбы с мошенниками с помощью ИИ полностью устроили, и акция во время торгов 26 мая выросла почти на 11%.

googletag.cmd.push(function() { googletag.display("ros_inArticle_cube_3"); });

Олег Каль, НЭП. Фото: Pixabay

The post Израильский страховой стартап похвастался использованием ИИ для выявления лжецов – и вызвал волну возмущения appeared first on НЭП.

источник »

использованием похвастался страховой стартап company insurance интеллекта