Искусственный интеллект ютуб: Искусственный интеллект YouTube удалил рекордные 11,4 млн видео во втором квартале

Содержание

ИИ не справился с модерацией контента YouTube – люди возвращаются к работе

Видеосервис YouTube сообщил, что возвращает на работу сотрудников, занимавшихся модерацией контента до пандемии, поскольку искусственный интеллект не смог столь же корректно оценивать содержание видеороликов, сообщает The Verge.

В марте YouTube заявил, что откажется от людей-модераторов и будет максимально полагаться на системы машинного обучения, чтобы отмечать и удалять контент, нарушающий его политику, в частности, запрет на враждебные высказывания (hate speech) и распространение дезинформации. Однако теперь сервис признался, что использование ИИ привело к значительному росту случаев удаления видео и некорректных решений.

В период с апреля по июнь с YouTube было удалено порядка 11 миллионов видео – примерно в два раза больше обычного среднего значения. Около 320 тысяч из этих миллионов удалений были оспорены – и примерно половина апелляций была одобрена – и ролики восстановлены. Это, опять же, в два раза больше, чем в «до-ИИ период», то есть искусственный интеллект показал себя весьма жестоким и гиперусердным цензором.

Издание отмечает, что все крупные социальные медиаплатформы вроде Twitter, Facebook и YouTube в последнее время находятся под постоянным давлением – их заставляют следить за «чистотой» контента и не допускать распространения ложных новостей и риторики ненависти. И все они возлагали надежды на ИИ-алгоритмы, которые, по их мнению, в силах справиться с модерацией огромного количества пользовательского контента.

Однако эксперты в ИИ-технологиях и модерации регулярно подвергают сомнению эту идею. Решить, содержит ли видео элементы популяризации теории заговора или, например, намёк на расизм, сложно даже опытному человеку, а компьютеры лишены способности понимать конкретный культурный контекст и нюансы ситуации, указывают они. Автоматические системы могут «засечь» явных правонарушителей – что, безусловно, полезно, – однако без людей обойтись пока невозможно.

Впрочем, опыт YouTube показал, что для удаления действительно опасных роликов ИИ оказался весьма эффективным. По данным сервиса, более 50% из этих 11 миллионов видео были удалены до того, как их просмотрел хотя бы один человек; более 80% до удаления были просмотрены менее десяти раз.

23 классных ютуб-канала про AI, машинное обучение и Data Science

Профессии аналитика данных и дата-сайентистов, специалистов по AI, машинному обучению и цифровой трансформации уже не один год делают престижные списки самых перспективных профессий LinkedIn, Всемирного экономического форума, Glassdoor и не только, а их роль в жизни общества неизменно растёт.

Ниже — подборка 23 влогов и каналов на YouTube, которые бесплатно знакомят зрителей с искусственным интеллектом, машинным обучением и data science.

SpringBoard

Канал снимает интервью с дата-сайентистами крупных компаний уровня Google, Uber и Airbnb. Собеседники SpringBoard дают возможность взглянуть на профессию изнутри и делятся ценными советами для коллег и всех DS-энтузиастов.

Arxiv Insights

Ксандер Стинбрюгге — ML-исследователь в бельгийской AI-компании ML6. В своём блоге он рассказывает о важных вещах в машинном обучении, обучении с подкреплением, искусственном интеллекте с технической точки зрения, но в доступной для не очень подготовленного зрителя форме.

Смотрите курсы Machine Learning на Coursera.

Machine Learning 101

Новый канал с познавательными видео, объясняющими базовые понятия AI, и подкастами с участием экспертов по DS и искусственному интеллекту.

FreeCodeCamp

Это крутая некоммерческая организация и опенсорс-сообщество предлагает большую коллекцию видеороликов, по которым можно бесплатно учиться программировать и создавать свои проекты. Все материалы на сайте полностью бесплатны. Ещё у FreeCodeCamp есть новостная платформа, где постят статьи программировании и проектах.

Data School

Автор канала Кевин Маркем делает ёмкие видеоуроки по AI и ML. Акцент делает на темах, которые необходимо усвоить в первую очередь. Туториалы будут доступны для понимания любому человеку независимо от образования.

Вы можете изучить AI на курсах Udemy.

Machine Learning TV

Ролики для студентов со специализацией Computer Science и всех, кто увлекается машинным обучением.

Giant Neural Network

Авторы канала стремятся сделать машинное обучение и обучение с подкреплением более понятными для всех. Здесь уже есть введение в нейросети «для чайников», а сейчас в работе серия роликов, рассчитанных на средний уровень.

Andreas Kretz

Дата-инженер Андреас Крец рассказывает о том, как получить практический опыт в профессии, о её нюансах, об используемых инструментах — Hadoop, Kafka, Spark — и многом другом.

Edureka!

Образовательная онлайн-платформа содержит туториалы на популярные темы, такие как DevOps, блокчейн, искусственный интеллект, Angular, Data Science, Apache Spark, Python, Selenium, Tableau, Android, AWS, цифровой маркетинг и другие.

Курсы на Edureka.

Andrew Ng

Канал сооснователя Coursera и Deeplearning.ai Эндрю Ына. Знаменитый учёный-информатик был назван одним из 100 самых влиятельных людей на планете по версии американского журнала Time в 2012 году.

Deeplearning.ai

Официальный YouTube-канал Deeplearning.ai с видеолекциями из специализации по глубокому обучению на Coursera. Эксперты компании преподают искусственный интеллект для AI-специалистов и людей без технического бэкграунда, начиная с основ и до самых передовых способов применения.

Tech with Tim

Ролики по машинному обучению и AI, веб-разработке, программированию, фреймворкам и другим тематикам. Автор снимает отличные туториалы по Python.

Machine Learning University (MLU)

Университет машинного обучения был создан Amazon в 2016 году. Его целью было дать максимальному числу сотрудников компании подготовку в области технологии, которая широко применяется в её продуктах. Сейчас три курса университета открыты для всех желающих.

Artificial Intelligence — All in One

Видеолекции о науке, технологиях и искусственном интеллекте.

Sentdex

Одни из лучших туториалов на YouTube по программированию на Python: более 1000 роликов, попроще — для чайников и посложнее — для продвинутых. Канал охватывает массу других интересных тем, например машинное обучение, финансы, аналитику данных, робототехнику, веб-разработку и многое другое.

Joma Tech

Познавательные ролики для погружения в мир айти. Автор работал дата-сайентистом и разработчиком в больших технологических компаниях, а для канала снимает интервью с авторитетами Кремниевой долины и сюжеты о жизни в ней. Ещё он доходчиво объясняет про data science.

Python Programmer

Видеоуроки по Python, data science, машинному обучению, рекомендации книг и другое.

Учите Python с edX.

Deep Learning TV

Видеоинструкции, обзоры программных библиотек и приложений, интервью с ключевыми фигурами в области глубокого обучения. Канал стремится сделать машинное обучение доступнее для простых смертных и показать, что на самом деле с ним всё не так страшно, как кажется.

Google Cloud Platform

Канал Google про безопасные инфраструктуры, инструменты разработки, API, аналитику данных и машинное обучение.

Keith Galli

Выпускник MIT Кит Галли делает обучающие ролики об информатике, программировании, настолках и многом другом.

Data Science Dojo

Создатели канала обещают обучить data science кого угодно в простой и понятной форме. Туториалы, лекции и курсы для дата-инженеров и сайентистов.

StatQuest

Канал раскладывает по полочкам и упаковывает в небольшие и доходчивые видео сложные методы статистики и машинного обучения. Причём авторы не стремятся излишне упрощать материал, а наоборот помогают вывести знания на новый уровень и разобраться в теме.

Yannic Kilcher

Видео про исследовательские работы по машинному обучению, программирование, проблемы AI-сообщества и значение AI в жизни общества в целом.


как искусственный интеллект счёл высказывания любителей настольной игры расистскими — РТ на русском

Программы, использующие инструменты искусственного интеллекта, сочли высказывания любителей шахмат расистскими. Об этом сообщили исследователи из американского Университета Карнеги — Меллона. При помощи программного обеспечения, способного распознавать нетолерантные выражения, учёные проанализировали 680 тыс. комментариев интернет-пользователей на шахматную тематику. В результате искусственный интеллект счёл неуместным подавляющее большинство реплик, однако при последующей проверке людьми многие «оскорбительные» высказывания оказались обычным обменом мнениями между любителями популярной настольной игры.

Учёные из Университета Карнеги — Меллона (США) выяснили, что разговоры любителей шахмат в ряде случаев воспринимаются искусственным интеллектом как расистские высказывания. Об этом сообщила пресс-служба вуза.

Так, научный сотрудник Института языковых технологий этого университета Ашикур Худабухш и его коллега инженер-исследователь Рупак Саркар изучили 680 тыс. комментариев пользователей, оставленных на пяти популярных YouTube-каналах о шахматах. Они проанализировали эти высказывания с помощью двух современных классификаторов речи. Программное обеспечение, в котором применяются методы искусственного интеллекта (ИИ), провело идентификацию выражений, присущих так называемому языку ненависти — оскорбительным, нетолерантным высказываниям, способствующим разжиганию межрасовой вражды.

Также по теме


«Вопиющая дискриминация»: не попавшая на турнир в Турции армянская шахматистка ждёт разъяснений от команды Азербайджана

Армянская шахматистка Мария Геворгян намерена выяснить причины, по которым сборная Азербайджана направила организаторам турнира в…

В итоге программы ИИ обнаружили множество «оскорбительных» комментариев, однако при проверке людьми 1 тыс. случайно выбранных сообщений такого типа выяснилось, что 82% из них были рядовыми разговорами шахматистов про белые и чёрные фигуры, нападение друг на друга соперничающих сторон и методы защиты.

Игра в шахматы не впервые оказывается в центре внимания западной общественности в контексте проблемы расизма.

Так, в середине прошлого года, на пике активности движения за права афроамериканцев Black Lives Matter в США, разгорелся скандал, когда гроссмейстера Джона Адамса журналисты австралийского радио безуспешно попытались заставить отыскать в шахматах признаки расизма.

В то же время YouTube-канал популярного шахматного стримера Антонио Радича после интервью с американским гроссмейстером японского происхождения Хикару Накамурой, где активно обсуждалось противостояние чёрных и белых фигур, был заблокирован без объяснения причин.

«Мы не знаем, какие инструменты использует YouTube, однако если для выявления расистских высказываний они полагаются на искусственный интеллект, то такое возможно», — отметил автор исследования Ашикур Худабухш, комментируя этот инцидент.

По его мнению, если подобное произошло с довольно известной личностью вроде Антонио Радича и получило огласку, то от таких ситуаций не застрахованы и рядовые пользователи, при этом для широкой общественности «цензура», скорее всего, останется незамеченной. 

Кроме того, учёные описали похожий случай, связанный с несовершенством искусственного интеллекта. Исследователям было необходимо «научить» тренировочную программу дифференцировать собак согласно их темпераменту. Так, на серии тестовых снимков активные животные были часто запечатлены в движении на фоне зелёной листвы и травы. Однако искусственный интеллект регулярно ошибался, учитывая окружающую обстановку как критерий для оценки характера, и отмечал на фотографиях как активных даже инертных собак, которые просто лежали на газоне.

Британские разработчики представили искусственный интеллект, умеющий определять правила игры во время первых раундов | Громадское телевидение

Об этом сообщает BBC.

Британские изобретатели уже представляли искусственный интеллект AlphaZero, который умел играть в шахматы и китайскую игру го. Однако, в отличие от MuZero, его предшественник знал правила игры заранее и мог тренировать себя перед матчами.

Новый искусственный интеллект использует и модель самообучения. Это, по словам изобретателей, позволяет искусственному интеллекту достигать сверхчеловеческой производительности.

«Впервые у нас фактически есть система, которая способна построить свое собственное понимание того, как работает мир, и использовать это понимание для осуществления сложного планирования на перспективу, которое вы видели ранее в шахматах», ㅡ отметил главный научный сотрудник DeepMind Дэвид Сильвер.

MuZero показал последние достижения британской компании в разработке обучения с подкреплением — техники машинного обучения, которая использует многослойные нейронные сети, чтобы машины могли научить себя новым навыкам методом проб и ошибок. За каждый успех искусственный интеллект получает «вознаграждение», но ему никогда не подсказывают.

Разработчики говорят, что вскоре MuZero можно будет применять на практике. Например, его хотят привлечь для разработки нового вида компрессии видео, что могло бы помочь платформе YouTube сократить расходы на их хранение.

Однако такие значительные достижения пугают некоторых ученых. Вен Холл, профессор информатики в Университете Саутгемптона, которая специализируется на искусственном интеллекте, отметила, что разработчики должны принимать во внимание последствия своей работы.

«Я сомневаюсь, что изобретатели реактивного двигателя думали о глобальном загрязнении, когда работали над своим изобретением. Мы должны достичь этого баланса прямо во время разработки искусственного интеллекта», — сказала она.

Ранее исследователи DeepMind заявили, что с помощью искусственного интеллекта AlphaFold смогли решить задачу прогнозирования свертывания белков, над которой ученые работали более 50 лет.

Тестирование показало, что искусственный интеллект за несколько часов вычислений может предсказать структуру белка с точностью до атома.

Это открывает новые возможности в сфере медицины и разработки лекарств, ведь понимание моделирования свертывания белков является ключевой задачей для исследования того, как болезни распространяются и влияют на организм человека.

Сейчас DeepMind уже начала работу над тем, чтобы предоставить доступ к своему искусственному интеллекту ученым для помощи в научных работах.

Кто такие DeepMind

Компания больше известна своими программами, которые соревновалась с людьми в игре в шахматы, го, Starcraft II или Atari. Но это никогда не было главной целью DeepMind. Игры предоставили для искусственного интеллекта лишь площадку для создания программ, которые могут решать реальные проблемы человечества.

Фильм Искусственный интеллект. Доступ неограничен смотреть онлайн

Главный герой фильма – успешный бизнесмен Майк Риган. Его дела, как на работе, так и дома идут вполне неплохо. Майк готовится разместить акции своей компании на бирже, чтобы привлечь инвесторов для крупного проекта. Во время презентации этого проекта перед сотрудниками компании случается накладка, с которой помогает разобраться молодой айтишник Эд Портер. Позже Майк приглашает его в свой дом, чтобы разобраться с плохо работающим Wi-Fi. Покопавшись немного в напичканном электроникой доме Майка, Эд знакомится с Роуз, женой босса, и их дочерью Кейтлин. Так же компьютерщик устанавливает в новую машину Майка более продвинутый навигатор.

Вечером Эд отправляет Кейтлин запрос в друзья, и на следующий день она его принимает. После непродолжительной переписки Эд заявляется к ним домой, но Майк его выпроваживает. Эд продолжает вести себя нагло и после того, как он подвозит Кейтлин домой от школы, Майк увольняет парня с работы. Вскоре у Ригана начинаются серьезные проблемы. Комиссия по ценным бумагам не только стопорит выход его акций на биржу, но и начинает расследование против его фирмы. После пакости, которую Эд устроил для Роуз, Майк находит его и угрожает убить. Но психопат продолжает уничтожать идеальную жизнь своего бывшего босса. Он взламывает сервера его компании и выкладывает в сеть непристойное видео с Кейтлин.

Риган мчит на своей машине к Эду, но тот блокирует ему тормоза и Майк попадает в аварию. В полиции он рассказывает детективу, что Эд Портер хотел его убить. Однако полицейский не верит ему и просит доказательства. Герой фильма понимает, что от полиции он помощи не добьется и решает справиться с проблемой своими силами. Через друга он выходит на некоего «чистильщика», который помогает ему и его семье полностью исчезнуть из сети. Теперь Эд не может их достать, но от наглого айтишника все равно нужно избавляться. Для этого Майк при помощи своего нового друга проникает в жилище Портера и крадет флэшки с доказательством его вины.

Майк приносит флэшки в полицию, но там его арестовывают за нападение на Портера. Выйдя под залог, Риган возвращается домой. Там его уже ждет Эд, который связал его жену и дочь. Так как у парня в руках пистолет, Майк не сразу получает возможность наброситься на маньяка. В результате драки Майку избивает Эда до полусмерти, а от убийства его отговаривает жена. В последних сценах фильма показывается, что у Майка и его семьи все наладилось.

21 канал на YouTube, где вы можете бесплатно изучить ИИ, машинное обучение и Data Science

Мы уже не раз делились в своем блоге полезными материалами для развития (их список можно найти в конце этого поста). Сегодня продолжаем это начинание и специально перед стартом новых потоков курсов по

Data Analytics

и

Data Science

представляем подборку YT-каналов по Data Science, искусственному интеллекту и машинному обучению, существование многих из которых неочевидно: например, представлен канал ArXiv Insights, посвящённый научным работам, и Google Cloud Platform.


Пока пандемия удерживает нас дома, удалёнка стала новой нормой для многих из нас. И хотя сейчас трудно найти стоящий тренинг, это не значит, что мы должны перестать учиться. Можно сказать, что наступил идеальный момент, чтобы чему-нибудь научиться. Почему бы не посвятить остаток этого сумасшедшего 2020 года изучению ИИ, программирования на Python, ML и DS? Такие рабочие роли, как аналитики данных, специалисты по машинному обучению, робототехнической инженерии, цифровой трансформации, являются лидерами в дальнейшем будущем. Это расширяющаяся область знаний, которая играет огромную роль в жизни общества.


Этот канал публикует интервью с дата-сайентистами из больших компаний, подобных Google, Uber, Airbnb и т. д. Из этих видео вы получите представление о том, что значит быть дата-сайентистом, и ценные жизненные советы.


Ксандер Стинбрюгге — исследователь машинного обучения в ML6. Его канал — резюме критически важных вопросов ML, где обучают с подкреплением искусственного интеллекта, в основном с технической точки зрения, делая их доступными для широкой аудитории.


Новый канал ML Youtube, о котором должен знать каждый. Machine Learning 101 публикует объяснение начальных понятий в области искусственного интеллекта. Кроме того, канал публикует подкасты с экспертами Data Science, работающими в коммерческих индустриях.


FreeCodeCamp — невероятная некоммерческая организация. Это опенсорс сообщество, предлагающее коллекцию ресурсов, которые помогают людям научиться программировать бесплатно, через создание проектов.


Кевин Маркхем записывает понятные YouTube туториалы. Data School с самого начала фокусируется на темах, которые вам нужно изучить, чтобы стать дата-сайентистом, и предлагает углубленные туториалы, понятные вне зависимости от вашего образования.


ML TV — ресурс для студентов и энтузиастов, созданный, чтобы вы лучше понимали ML.


Этот канал YouTube направлен на то, чтобы сделать машинное обучение и обучение с подкреплением доступнее для всех. Вы найдете 12 плейлистов — это исчерпывающее введение в нейронные сети для начинающих, и, похоже, следующие ролики о нейронных сетях сейчас снимаются.


Андреас Крец — дата-инженер и основатель компании Plumbers of Data Science. Он транслирует на своем канале понятные программы о том, как получить практический опыт в области разработки данных, а также видео с вопросами и ответами о разработке данных с помощью Hadoop, Kafka, Spark и не только.


Edureka — это платформа с туториалами и руководствами на актуальные темы в области больших данных, Hadoop, DevOps, блокчейна, искусственного интеллекта, Angular, Data Science, Apache Spark, Python, Selenium, Tableau, Android, сертификации PMP, архитектуры AWS, digital-маркетинга и многого другого.


Эндрю Ын был назван одним из 100 самых влиятельных людей, по версии Time, в 2012 году и самой культовой личностью, по версии Fast Company. Он — один из основателей Coursera и deeplearning.ai, вице-президент и главный научный сотрудник Baidu, а также адъюнкт-профессор Стэнфордского университета.


На официальном канале Deep Learning AI есть видеоуроки из специализации глубокого обучения на Coursera. DeepLearning.ai — это образовательная технологическая компания, которая развивает глобальное сообщество талантов в области искусственного интеллекта.

Накопленный под руководством экспертов опыт deeplearning.ai в области образования предоставляет специалистам-практикам и нетехническим специалистам ИИ необходимые инструменты, позволяющие им пройти весь путь от основ до передовых прикладных программ, расширяя их возможности в создании будущего на основе ИИ.


Тим — блестящий программист, преподающий Python, разработку игр с помощью Pygame, Java и машинное обучение. Он создает качественные учебные пособия по программированию на Python.


Созданный в 2016 году Университет машинного обучения (MLU) — инициатива Amazon с ясной целью — обучить как можно больше сотрудников технологиям и необходимой компании магии предложения продуктов с помощью интегрированных технологий ML.


Этот канал YouTube содержит обучающие видеоролики, связанные с наукой, технологиями и искусственным интеллектом.


Sentdex создает один из лучших учебников по программированию Python на YouTube. Его учебные пособия варьируются от начального уровня до продвинутого с более чем 1000 видео о программировании на Python. Это больше, чем просто основы. В них рассказывается о машинном обучении, финансах, анализе данных, робототехнике, веб-разработке, разработке игр и многом другом.


Joma Tech — ютубер, который делает видео, помогающие людям попасть в технологическую индустрию. Он работал в крупных технологических компаниях в качестве дата-сайентиста и инженера-программиста. Основываясь на своем опыте, он делает видеоинтервью с экспертами, видео об образе жизни в Силиконовой долине, делает науку о данных более доступной.


Содержание Python Programmer — это учебные пособия по Python, Data Science, ML, рекомендации книг и многое другое.


Этот канал YouTube посвящен инструкциям, обзорам библиотек ПО и приложений, а также интервью с ключевыми персонами в области глубокого обучения. DL TV посвящено области исследований, которая учит машины воспринимать мир. Начиная с серии, посвященной упрощенному объяснению DL, на канале выкладываются ролики с инструкциями, обзорами библиотек программного обеспечения и приложений, а также интервью с ключевыми персонами в этой области. С помощью серии концептуальных видеороликов, демонстрирующих интуитивно понятные объяснения лежащих в основе глубокого обучения методов, канал показывает, что глубокое обучение на самом деле проще, чем вы думаете.


Видеоролики YouTube помогут вам создавать будущее с помощью безопасной инфраструктуры, инструментов разработчика, API, анализа данных и машинного обучения.


Кит Гэлли — недавний выпускник MIT. Он делает обучающие видео о DS, программировании, настольных играх и о многом другом.


Data Science Dojo — это канал, который обещает научить Data Science всех желающих в простой для понимания форме. Вы найдете множество туториалов, лекций и курсов по инженерии данных и Data Science.

Заключение


Эти каналы уникальны, я уже долго слежу за ними и очарован огромным количеством знаний, которые сегодня доступны в сети бесплатно. Я надеюсь, что вам понравится, и, если вы знаете какие-либо другие интересные каналы YouTube об ИИ, машинном обучении, глубоком обучении или науке о данных, оставьте их в комментариях!

А если хочется не только смотреть каналы но и перенимать опыт практиков — приходите к нам, а специальный промокод HABR — приплюсует 10% к скидке на баннере.

Рекомендуемые статьи

YouTube признал расизмом разговор о противостоянии чёрных и белых фигур в шахматах

Инцидент произошёл ещё летом 2020 года, сообщило издание Daily Mail. Блогер увидел, что его YouTube-канал, на который подписано более 1 млн человек, оказался заблокирован. Через 24 часа ограничение сняли.

Радич предположил, что причиной блокировки стала фраза «чёрные против белых», которую он произнёс, обсуждая с американским гроссмейстером Хикару Накамурой шахматную партию. Специалист по теории вычислительных машин и систем из Университета Карнеги — Меллона Ашикур ХудаБухш допустил, что блогер может быть прав.

«Мы не знаем, какие YouTube использует инструменты, но если они полагаются на искусственный интеллект (ИИ), чтобы выявлять расистские высказывания, то такой инцидент вполне может произойти», — сказал учёный.

Он и его коллега решили проверить эту догадку и провели тесты на двух самых современных классификаторах речи. Это программы на основе искусственного интеллекта, которые фиксируют язык вражды. Специалисты прогнали через них более 680 000 комментариев с пяти популярных шахматных YouTube-каналов.

Исследование показало, что в 82% случаев ИИ фиксировал язык вражды и разжигание ненависти, хотя такой смысл в помеченных комментариях не вкладывался. По словам учёных, вероятно, алгоритм реагировал на такие слова, как «чёрный», «белый», «атака», «угроза». Специалисты предложили соцсетям и другим похожим платформам добавить шахматный язык в свои алгоритмы, чтобы избежать путаницы в будущем.

В YouTube при этом отказались комментировать, по какой причине канал Радича подвергся блокировке. Сервис отметил, что его сотрудники действуют очень быстро, когда понимают, что бан произошёл ошибочно. Представители платформы добавили, что Радич обжаловал блокировку своего канала, после чего YouTube оперативно её снял.

Антонио Радич завёл канал в 2017 году. В течение года доход от деятельности на YouTube превысил его заработки в качестве свадебного фотографа. Самое популярное видео на его канале — обзор партии 1962 года между советскими шахматистами Рашидом Нежметдиновым и Олегом Черниковым. Ролик собрал более 5,5 млн просмотров.

Фото: Pixabay, Pixabay License

Ещё ближе к делу — главные новости и самые интересные истории в нашем Telegram-канале.

Удивительные способы использования искусственного интеллекта и машинного обучения на YouTube

Ежемесячно на YouTube регистрируется более 1,9 миллиарда пользователей, которые ежедневно просматривают более миллиарда часов видео. Каждую минуту создатели загружают на платформу 300 часов видео. При таком количестве пользователей, активности и контента YouTube имеет смысл воспользоваться возможностями искусственного интеллекта (ИИ) для облегчения работы. Вот несколько способов, которыми YouTube, принадлежащий Google, сегодня использует искусственный интеллект.

Удивительные способы использования на YouTube искусственного интеллекта и машинного обучения

Adobe Stock

Автоматически удалять нежелательное содержание

В первом квартале этого года с YouTube было удалено 8,3 миллиона видео, и 76% были автоматически идентифицированы и помечены классификаторами искусственного интеллекта. Более 70% из них были идентифицированы до того, как были просмотрены пользователями. Хотя алгоритмы не являются надежными, они просматривают контент намного быстрее, чем если бы люди пытались контролировать платформу в одиночку.В некоторых случаях алгоритм удалял заслуживающие внимания видеоролики, ошибочно считая их «насильственным экстремизмом». Это лишь одна из причин, по которой в Google есть штатные специалисты-люди, работающие с ИИ для устранения оскорбительного контента.

Фактически, по словам Сесиль Фрот-Коутаз, главы EMEA, «приоритетом номер один» YouTube является защита пользователей от вредоносного контента. Для этого компания инвестировала не только в человеческих специалистов, но и в технологию машинного обучения для поддержки своих усилий.Искусственный интеллект внес большой вклад в способность YouTube быстро выявлять нежелательный контент. До использования искусственного интеллекта только 8% видеороликов, содержащих «насильственный экстремизм» (запрещенных на платформе), были помечены и удалены до того, как произошло десять просмотров; но после использования машинного обучения более половины удаленных видео имели менее десяти просмотров.

Одним из основных факторов, побуждающих YouTube удалять нежелательный контент, является давление со стороны брендов, агентств и правительств, а также негативная реакция, возникающая в случае показа рекламы рядом с оскорбительными видео.Когда рядом с видеороликами YouTube, поддерживающими расизм и терроризм, стала появляться реклама, Havas UK и другие бренды начали тянуть свои рекламные деньги. В ответ YouTube развернул передовое машинное обучение и сотрудничал со сторонними компаниями, чтобы обеспечить прозрачность для рекламных партнеров.

Компания также использует «мусорный классификатор видео», который сканирует домашнюю страницу YouTube и панели «смотреть дальше». Он учитывает отзывы зрителей, которые могут сообщить о вводящем в заблуждение заголовке, неприемлемом или другом нежелательном содержании.

Новые эффекты на видео

Move over Snapchat, исследователи искусственного интеллекта Google обучили нейронную сеть менять фон на видео без специального оборудования. Хотя это было возможно делать в течение десятилетий — представьте, что зеленые экраны заменены цифровыми эффектами — это был сложный и трудоемкий процесс. Исследователи обучили алгоритм с тщательно размеченными изображениями, который позволил алгоритму изучать закономерности, и в результате получилась быстрая система, способная не отставать от видео.

Функция «Далее»

Если вы когда-либо пользовались функцией YouTube «Следующее», значит, вы воспользовались искусственным интеллектом платформы. Поскольку набор данных на YouTube постоянно меняется, поскольку его пользователи загружают часы видео каждую минуту, ИИ, необходимый для работы его механизма рекомендаций, должен отличаться от механизмов рекомендаций Netflix или Spotify. Он должен был иметь возможность обрабатывать рекомендации в режиме реального времени, в то время как новые данные постоянно добавляются пользователями.Решение, которое они придумали, представляет собой систему, состоящую из двух частей. Первый — генерация кандидатов, когда алгоритм оценивает историю пользователя YouTube. Вторая часть — это система ранжирования, которая присваивает оценку каждому видео.

Гийом Часло, бывший сотрудник Google и основатель инициативы по повышению прозрачности, известной как AlgoTransparency, объяснил, что показатель, используемый алгоритмом YouTube для определения успешной рекомендации, — это время просмотра. По его словам, это хорошо для платформы и рекламодателей, но не очень хорошо для пользователей.Эта ситуация может усилить видео с диковинным содержанием, и чем больше люди тратят время на его просмотр, тем больше его рекомендуют.

Тренинг по прогнозированию глубины

Видео на YouTube с таким большим объемом данных является плодородной тренировочной площадкой для алгоритмов искусственного интеллекта. Исследователи Google AI использовали более 2000 видеороликов «вызов манекена», размещенных на платформе, чтобы создать модель искусственного интеллекта, способную определять глубину резкости в видеороликах. В «вызове с манекеном» группы людей на видео стояли неподвижно, как будто они замерли, пока один человек проходил через сцену, снимая видео.В конечном счете, этот навык предсказания глубины может способствовать развитию опыта дополненной реальности.

В условиях продолжающегося кризиса массовых расстрелов, охватившего Америку, президент Трамп попросил компании, работающие в социальных сетях, «разработать инструменты, которые могут обнаруживать массовых стрелков до того, как они нанесут удар». С помощью искусственного интеллекта YouTube, Twitter и Facebook уже работают над удалением террористического контента, но что нового в запросе президента, так это то, что они работают с Министерством юстиции и правоохранительными органами.Возникает много вопросов о том, как будет работать такое партнерство, если каналы социальных сетей смогут обнаруживать реальных террористов до того, как они начнут действовать, и о возможности воздействия на гражданские свободы невинных людей. Еще неизвестно, смогут ли YouTube и другие социальные сети использовать искусственный интеллект, чтобы остановить террористов, не нарушая при этом права других.

Как YouTube использует искусственный интеллект?

YouTube — это обитель всего современного мира, хранящий истории, воспоминания, действия и данные всей аудитории, являясь одновременно их источником развлечения и мотивации.Платформа служит как бегством от реальности, так и погружением в реальность. Более миллиарда пользователей вошли на платформу YouTube в течение месяца, просматривая и транслируя более миллиарда часов видео каждый день, и на платформе ежедневно творится целый мир хаоса и активности.

Обладая огромным количеством пользователей, загруженным контентом и увлекательными занятиями, искусственный интеллект становится очень полезным оружием для платформы, позволяющим сглаживать ее процессы и действия и помогать им в их усилиях по улучшению своей платформы.В частности, появление COVID19 в значительной степени увеличило зависимость YouTube от искусственного интеллекта, поскольку сотрудники платформы вынуждены работать из своих домов в целях безопасности.

Поскольку мы обсуждаем YouTube, вы также можете заглянуть в наш блог, посвященный анализу настроений в комментариях на YouTube.

Применение искусственного интеллекта на YouTube

Ниже приведены несколько способов, с помощью которых платформа YouTube использует искусственный интеллект в наши дни:

Работа с фейковыми новостями

В последние годы YouTube и различные другие платформы социальных сетей, такие как Facebook и Twitter, пытались бороться с поддельными новостями и дезинформацией.В отличие от многих сайтов социальных сетей, которые просто отмечают поддельный контент, YouTube применяет искусственный интеллект для предотвращения такого оскорбительного контента.

В первые дни пандемии COVID19 YouTube ориентировался на искусственный интеллект с целью избавиться от около 11 миллионов видео со своей платформы. Согласно последнему отчету платформы о соблюдении принципов сообщества, это максимальное количество видео, которое она смогла заблокировать в течение одного квартала, т. Е.e во втором квартале 2020 года. Среди 11,4 миллиона видео , которые платформа удалила во 2-м квартале, около 10,8 миллиона из них были отмечены усилиями, предпринятыми модераторами ИИ. Таким образом, автоматизированные системы зарекомендовали себя как эффективное оружие для удаления любого контента, который был классифицирован как вредный в соответствии с политикой YouTube.

Тестирование глав видео, сгенерированных ИИ

Платформа

YouTube недавно начала тестирование, внедрив машинное обучение для мгновенного добавления глав в свой видеоконтент.

Платформа выпустила пробную версию на своей странице тестовых функций и экспериментов YouTube на веб-сайте поддержки Google:

«Мы хотим упростить людям навигацию по видео с помощью глав, поэтому мы экспериментируем с автоматическим добавлением глав к видео (чтобы создателям не приходилось вручную добавлять отметки времени). Мы будем использовать машинное обучение для распознавания текста и автоматического создания глав видео. Мы тестируем это на небольшой группе видео.”

Система представляет собой эффективное добавление к видео-главам, которые были развернуты платформой в 2020 году для создателей.

Эта функция позволяет создателям разделять видео на разделы, используя их собственные индивидуальные превью. Затем зрители могут сразу перейти к разделу, который они хотят посмотреть.

Платформа утверждает, что включение глав позволяет зрителям транслировать больше видео и увеличивает их шансы вернуться к нему.В настоящее время создатели обязаны вручную ставить отметки времени в описаниях своих видео. Автоматическая генерация глав существенно сэкономит их время и силы.

Вы также можете заглянуть в наш блог, посвященный извлечению комментариев с YouTube.

Автоматически блокировать непригодный контент

Давление и неодобрение со стороны правительства, агентств, а также брендов — один из основных факторов, определяющих упорство YouTube в борьбе с неприемлемым и неприятным содержанием.Ответная реакция возникла в случае появления рекламы рядом с отвратительным контентом. Примером этого является то, что вместе с видеороликами платформы начали показывать рекламу, пропагандирующую терроризм и расизм, что привело к тому, что Havas UK и другие бренды потянули свои рекламные деньги. В ответ на это YouTube использовал передовое машинное обучение и сотрудничал со сторонними организациями, помогая обеспечить прозрачность для рекламных партнеров.

Хотя алгоритмы платформы часто могут быть ненадежными или полностью точными, они проверяют и просматривают контент быстрее, чем люди могут сделать это вручную.Тем не менее, было также несколько случаев, когда заслуживающий внимания контент был удален, помеченный как «насильственный экстремизм». Это во многом причина того, что Google также нанял штатных специалистов-людей для сотрудничества вместе с ИИ для борьбы с оскорбительным контентом.

Искусственный интеллект внес большой вклад в способность YouTube определять непригодный контент.

YouTube также оснащен «мусорным классификатором видео», который сканирует домашнюю страницу платформы, а также панели «смотреть дальше».Классификатор изучает отзывы зрителей, которые могут сообщить о вводящем в заблуждение заголовке, неподходящем или другом неприемлемом содержании.

Новые эффекты для видео

Процесс переключения фонового изображения всегда был достижим, но раньше это был сложный и медленный процесс. Исследователи искусственного интеллекта Google обучили нейронную сеть заменять фон на видео без какого-либо специального оборудования.Этот алгоритм был обучен с осторожно маркированными изображениями, которые позволяют ему поглощать шаблоны, в результате чего получается быстрая система, которая может идти в ногу с видео.

Вы можете лучше узнать, что такое алгоритм, в этом блоге.

Функция «Далее»

Функция YouTube «Up Next» — это одна из особенностей платформы, в которой постоянно используется искусственный интеллект.Поскольку набор данных YouTube постоянно изменяет то, что видео загружается пользователями каждую минуту, ИИ платформы должен был сильно отличаться от механизмов рекомендаций таких платформ, как, скажем, Netflix или Spotify, поскольку платформа требовалась для управления предложениями в реальном времени. а свежие данные одновременно дополняются пользователями.

В ответ на эту проблему решение, которое взяла на вооружение платформа, в основном представляет собой систему, состоящую из двух частей. В этой системе первой частью будет генерация кандидатов, в которой алгоритм проверяет историю пользователя на платформе .Вторая часть — это рейтинговая система . Эта система присваивает баллы каждому видео.


Области, на которых сосредоточена система рекомендаций YouTube


Еще несколько важных мест, на которые алгоритм оказывает значительное влияние, — это домашняя страница пользователя YouTube, популярные видео, уведомления и подписки.

Основная цель здесь не в том, чтобы определить «хорошие» видео, а в том, чтобы сопоставить пользователей с видео, которые они хотят смотреть, чтобы гарантировать, что они проводят на платформе максимальное количество времени.

Как подчеркнул Гийом Часло , бывший сотрудник Google и нынешний основатель инициативы, призывающей к большей прозрачности под названием AlgoTransparency, метрика, принятая алгоритмом YouTube для определения точной рекомендации, — это в основном время просмотра, которое, как он утверждал, может быть полезным для платформы и ее рекламодателей, но не столь выгоден для пользователей, поскольку может повысить популяризацию видео с неодобрительным контентом, и они будут рекомендовать больше, чем больше они транслируются.

В настоящее время система рекомендаций YouTube в основном работает следующим образом. С точки зрения непрофессионала, чтобы заполнить боковую панель рекомендованными видео, платформа сначала составляет короткий список, состоящий из более чем сотни видео, определяя видео, которые дополняют тему и различные другие характеристики видео, которое пользователь в настоящее время транслирует. После этого платформа составляет список, ранжируя его в соответствии с предпочтениями пользователя, который она поглощает, передавая клики, лайки и оставшиеся взаимодействия пользователя в алгоритм машинного обучения.

В этой форме работы исследователи нацелены на конкретную проблему, которую они классифицировали как «неявная предвзятость» . Эта форма предвзятости в основном подразумевает, как рекомендации могут, в свою очередь, повлиять на поведение пользователей, поднимая вопрос о том, было ли нажато видео на то, потому что оно было предпочтительным или только потому, что оно было настоятельно рекомендовано. Это может привести к отрицательному эффекту системы, со временем уводящей пользователей платформы от контента, который они действительно предпочитают транслировать.

С целью устранения этой предвзятости исследователи предложили небольшое изменение алгоритма, то есть каждый раз, когда пользователь нажимает на видео, рейтинг видео на боковой панели рекомендаций также принимается во внимание. Видео, расположенные ближе к верхней части боковой панели, имеют меньший приоритет при загрузке в алгоритм, в то время как видео, расположенные намного ниже, которые обычно требуют от пользователя прокрутки для доступа к ним, будут иметь больший приоритет.

Вы можете заглянуть в наш блог о том, как извлечь данные YouTube?

Тренинг по прогнозированию глубины

Оборудованные множеством данных, видеоролики YouTube служат плодотворной тренировочной площадкой для алгоритмов искусственного интеллекта. Исследователи Google AI использовали более 2000 видеороликов «вызов манекена», загруженных на платформу, для разработки модели искусственного интеллекта, способной измерять глубину резкости в видеороликах.В «вызове манекена» в первую очередь участвовала группа людей, которые стояли неподвижно и оставались неактивными во время съемки видео, как если бы они были заморожены. Навыки прогнозирования глубины также могут помочь в улучшении опыта AR (дополненной реальности).

Установить возрастные ограничения

YouTube недавно объявил о своем плане внедрения усовершенствованного ИИ, чтобы молодые люди не могли смотреть потоковые видео, созданные для взрослой аудитории.

До настоящего времени платформа просила своих создателей помечать свои видео с возрастными ограничениями, прибегая к принятию алгоритма пометки видео только в крайних случаях. Теперь платформа планирует использовать аналогичный алгоритм машинного обучения, чтобы сосредоточиться на том, что подходит для определенных возрастных групп.

В настоящее время платформа уже включает детские приложения для возрастной группы младше 13 лет, в то время как помеченный контент платформы снабжен возрастными воротами, которые включают экстремистский контент, доступный на платформе.Еще в 2017 году на платформе была представлена ​​технология машинного обучения для избавления от такого контента. Платформа теперь планирует использовать аналогичную технологию для определения видео, которые считаются подходящими только для зрелой аудитории.

Заключение

Вышеупомянутые моменты — это некоторые из способов, которыми YouTube использует искусственный интеллект для оптимизации своих различных задач и процессов.Искусственный интеллект сыграл ключевую роль в разработке платформы и во влиянии на ее нынешние функции.

Рекомендуемый искусственный интеллект YouTube по-прежнему представляет собой шоу ужасов, согласно результатам крупного краудсорсингового исследования — TechCrunch

В течение многих лет алгоритм рекомендаций YouTube по видео обвинялся в том, что он подпитывает множество социальных проблем, скармливая пользователей усиленной искусственным интеллектом диете из языка ненависти, политического экстремизма и / или мусора / дезинформации о заговоре из соображений спекуляции, пытаясь сохранить миллиарды долларов. глазные яблоки прилипли к его рекламному инвентарю.

И хотя родительский технический гигант YouTube, Google, время от времени отвечал на вспыхивающую негативную огласку вокруг антисоциальных рекомендаций алгоритма — объявляя о нескольких корректировках политики или ограничивая / очищая странную ненавистную учетную запись, — неясно, насколько сильно платформа склонна продвигать ужасно нездоровые Clickbait был перезагружен.

Подозрение остается далеко не достаточным.

Новое исследование, опубликованное сегодня Mozilla, подтверждает эту точку зрения, предполагая, что ИИ YouTube продолжает накапливать груды «питающего снизу» / низкосортного / вызывающего разногласия / дезинформирующего контента — материала, который пытается привлечь внимание, вызывая у людей чувство возмущения, шитья разделение / поляризация или распространение необоснованной / вредоносной дезинформации — что, в свою очередь, означает, что проблема YouTube с рекомендациями ужасных вещей действительно носит системный характер; побочный эффект жадного аппетита платформы к сбору просмотров для показа рекламы.

То, что искусственный интеллект YouTube по-прежнему — согласно исследованию Mozilla — ведет себя так плохо, также свидетельствует о том, что Google довольно успешно справлялся с критикой поверхностными заявлениями о реформе.

Основой его ошибочного успеха здесь, вероятно, является основной механизм защиты, заключающийся в том, что алгоритмическая работа механизма рекомендаций (и связанные с ним данные) скрыта от общественности и внешнего надзора — с помощью удобного прикрытия «коммерческой тайны».

Но правила, которые могли бы помочь взломать проприетарные черные ящики ИИ, теперь на картах — по крайней мере, в Европе.

Чтобы исправить алгоритм YouTube, Mozilla призывает к «законам здравого смысла о прозрачности, лучшему надзору и давлению со стороны потребителей», предлагая комбинацию законов, которые требуют прозрачности в системах искусственного интеллекта; защищать независимых исследователей, чтобы они могли исследовать алгоритмические воздействия; и предоставить пользователям платформы надежные средства управления (например, возможность отказаться от «персонализированных» рекомендаций) — вот что необходимо, чтобы обуздать худшие излишества искусственного интеллекта YouTube.

Сожалею, у пользователей YouTube было несколько…

Для сбора данных о конкретных рекомендациях для пользователей YouTube — информации, которую Google обычно не предоставляет сторонним исследователям — Mozilla использовала краудсорсинговый подход с помощью расширения браузера (называемого RegretsReporter), которое позволяет пользователям самостоятельно сообщать о видео YouTube, которые они « сожалею о просмотре.

Инструмент может генерировать отчет, который включает подробную информацию о видео, рекомендованных пользователем, а также о предыдущих просмотрах видео, чтобы помочь составить представление о том, как работает рекомендательная система YouTube. (Или, ну, в зависимости от обстоятельств, «дисфункции».)

Краудсорсинговые волонтеры, данные которых послужили основой для исследования Mozilla, сообщили о широком спектре «сожалений», включая видеоролики, распространяющие запугивание COVID-19, политическую дезинформацию и «крайне неприемлемые» детские мультфильмы, согласно отчету, причем наиболее часто упоминаемые категории контента: дезинформация, насилие / графические материалы, разжигание ненависти и спам / мошенничество.

Существенное большинство (71%) сообщений о сожалениях поступило из видео, рекомендованных самим алгоритмом YouTube, что подчеркивает главную роль ИИ в продвижении мусора в глаза людям.

Исследование также показало, что добровольцы сообщают о рекомендованных видео на 40% чаще, чем о видео, которые они искали сами.

Mozilla даже обнаружила «несколько» случаев, когда алгоритм рекомендаций предлагал пользователям контент, который нарушал собственные принципы сообщества YouTube и / или не имел отношения к предыдущему просмотренному видео.Так что явный провал.

Очень примечательным открытием стало то, что контент, вызывающий сожаление, представляет собой большую проблему для пользователей YouTube в странах, не говорящих по-английски: Mozilla обнаружила, что сожаления YouTube были на 60% выше в странах, где английский не был основным языком, а именно Бразилия, Германия и Франция генерировали то, что в отчете говорится, что количество пользователей YouTube, вызывающих сожаление, было «особенно высоким». (И ни один из трех не может быть отнесен к второстепенным международным рынкам.)

Сожаления, связанные с пандемией, также особенно распространены в странах, не говорящих по-английски, согласно отчету — тревожная деталь, которую нужно читать в разгар продолжающегося глобального кризиса в области здравоохранения.

Краудсорсинговое исследование, которое Mozilla называет крупнейшим за всю историю рекомендательного алгоритма YouTube, основывалось на данных от более чем 37000 пользователей YouTube, которые установили расширение, хотя это была подгруппа из 1162 добровольцев из 91 страны, которые представили отчеты с пометкой 3 362 прискорбных видео, на которые непосредственно опирается отчет.

Эти отчеты были созданы в период с июля 2020 года по май 2021 года.

Что именно Mozilla подразумевает под «сожалением» YouTube? В нем говорится, что это краудсорсинговая концепция, основанная на том, что пользователи сами сообщают о плохом опыте на YouTube, поэтому это субъективный показатель.Но Mozilla утверждает, что использование этого подхода, ориентированного на людей, сосредотачивает жизненный опыт пользователей Интернета и, следовательно, помогает выдвинуть на первый план опыт маргинализированных и / или уязвимых людей и сообществ (в отличие, например, от применения только более узкого юридического определения понятия «вред»).

«Мы хотели допросить и дополнительно изучить [опыт людей, падающих в« кроличью нору »YouTube] и откровенно подтвердить некоторые из этих историй, но затем также просто понять, каковы некоторые из тенденций, которые проявились в этом», — объяснила Брэнди. Геуркинк, старший менеджер Mozilla по защите интересов и ведущий исследователь проекта, обсуждает цели исследования.

«Мое главное чувство при выполнении этой работы было — я полагаю — шокировано тем, что некоторые из наших ожиданий подтвердились … Это все еще ограниченное исследование с точки зрения количества задействованных людей и методологии, которую мы использовали, но — даже при этом — это было довольно просто; данные просто показали, что кое-что из того, что мы думали, подтвердилось.

«Такие вещи, как алгоритм, рекомендующий контент, по сути, случайно, что позже он похож на« ой, это на самом деле нарушает наши правила; нам не следовало активно предлагать это людям… И такие вещи, как неанглоязычная база пользователей, испытывающая худший опыт — это вещи, которые, как вы слышите, часто обсуждали анекдотично, и активисты поднимали эти вопросы.Но я просто подумал — о, вау, в наших данных это действительно ясно проявляется ».

Mozilla утверждает, что краудсорсинговое исследование выявило «многочисленные примеры» заявленного контента, который может или фактически нарушает принципы сообщества YouTube, например, разжигание ненависти или разоблаченная политическая и научная дезинформация.

Но также говорится, что в отчетах отмечалось многое из того, что YouTube «может» считать «пограничным контентом». Ака, вещи, которые сложнее классифицировать — нежелательные / низкокачественные видео, которые, возможно, находятся за чертой приемлемости и поэтому могут быть более сложными для алгоритмических систем модерации платформы (и, следовательно, контент, который также может дольше выдерживать риск удаления) .

Однако связанная с этим проблема, отмеченная в отчете, заключается в том, что YouTube не дает определения пограничного контента — несмотря на обсуждение категории в своих собственных рекомендациях — следовательно, по словам Mozilla, это делает предположение исследователей о том, что большая часть того, что добровольцы сообщали как «Сожалеющий», скорее всего, попадет в категорию «пограничного контента» YouTube, которую невозможно проверить.

Задача независимого изучения влияния технологий и процессов Google на общество — это актуальная тема, лежащая в основе исследования.Но в отчете Mozilla также обвиняется технический гигант в том, что он отвечает на критику YouTube «инерционно и непрозрачно».

И там не только он. Критики уже давно обвиняют родительского рекламного гиганта YouTube в том, что он наживается на взаимодействии, порожденном ненавистью и вредоносной дезинформацией, позволяя «создаваемым искусственным интеллектом пузырям ненависти» всплывать все более зловещими (и, следовательно, увлекательными) вещами, подвергая ничего не подозревающих пользователей YouTube все большему риску. неприятные и экстремистские взгляды, даже несмотря на то, что Google получает возможность защищать свой бизнес низкокачественного контента под зонтиком пользовательского контента.

В самом деле, «падение в кроличью нору YouTube» стало широко известной метафорой для обсуждения процесса, когда ничего не подозревающие интернет-пользователи тянутся в самые темные и отвратительные уголки сети. Это перепрограммирование пользователей происходит среди бела дня с помощью генерируемых искусственным интеллектом предложений, которые кричат ​​людям, чтобы они следовали по следу крошек заговора прямо изнутри основной веб-платформы.

Еще в 2017 году, когда была на высоте озабоченность по поводу онлайн-терроризма и распространения контента ИГИЛ в социальных сетях, европейские политики обвиняли алгоритм YouTube именно в этом: автоматизация радикализации.

Однако по-прежнему сложно получить достоверные данные для подтверждения анекдотических сообщений о том, что отдельные пользователи YouTube «радикализировались» после часов просмотра экстремистского контента или мусора с теориями заговора на платформе Google.

Бывший инсайдер YouTube — Гийом Шасло — один из известных критиков, который в своем проекте алгоритмической прозрачности стремился отодвинуть завесу, прикрывающую проприетарную технологию от более тщательного изучения.

Краудсорсинговое исследование Mozilla дополняет эти усилия, создавая общую — и в целом проблематичную — картину искусственного интеллекта YouTube путем сопоставления отчетов о плохом опыте самих пользователей.

Конечно, внешняя выборка данных на уровне платформы, которые только Google хранит в полном объеме (с его истинной глубиной и размером), не может быть целостной картиной — и самооценка, в частности, может внести свой собственный набор предубеждений в набор данных Mozilla. . Но проблема эффективного изучения черных ящиков Big Tech — ключевой момент, сопровождающий исследование, поскольку Mozilla выступает за надлежащий надзор за мощью платформы.

В серии рекомендаций в отчете содержится призыв к «надежной прозрачности, проверке и предоставлению людям контроля над алгоритмами рекомендаций», утверждая, что без надлежащего надзора за платформой YouTube будет продолжать наносить ущерб, бездумно подвергая людей разрушительному и бессмысленному контенту.

Проблемное отсутствие прозрачности в отношении многих функций YouTube можно понять из других деталей в отчете. Например, Mozilla обнаружила, что с тех пор было удалено около 9% рекомендованных сожалений (или почти 200 видео) — по целому ряду не всегда понятных причин (иногда, предположительно, после того, как контент был заявлен и признан YouTube нарушающим руководящие указания).

В совокупности только эта подгруппа видео имела в общей сложности 160 миллионов просмотров до того, как была удалена по какой-либо причине.

Что касается других выводов, исследование показало, что жалкие просмотры, как правило, хорошо работают на платформе.

Особый суровый показатель заключается в том, что сообщаемые сожаления набирают на 70% больше просмотров в день, чем другие видео, которые смотрят добровольцы на платформе, что придает вес аргументу о том, что алгоритмы оптимизации взаимодействия YouTube непропорционально выбирают для запуска / дезинформации контента чаще качественный (продуманный / информативный) материал просто потому, что он приносит больше кликов.

Хотя это может быть здорово для рекламного бизнеса Google, это явно отрицательно для демократических обществ, которые ценят правдивую информацию над ерундой. подлинные публичные дебаты по поводу искусственных / усиленных двоичных файлов; и конструктивная гражданская сплоченность по сравнению с разобщающим трайбализмом.

Но без законодательно закрепленных требований прозрачности на рекламных платформах — и, скорее всего, без нормативного надзора и правоприменения, которые предусматривают полномочия аудита — эти технологические гиганты будут и дальше получать стимул закрывать глаза и получать прибыль за счет общества.

В отчете

Mozilla также подчеркиваются случаи, когда алгоритмы YouTube явно управляются логикой, не связанной с самим контентом — и обнаружено, что в 43,6% случаев, когда у исследователей были данные о видео, которые смотрел участник, до того, как было сообщено, что они сожалеют о рекомендации совершенно не имел отношения к предыдущему видео.

В отчете приводятся примеры некоторых из этих противоречащих логике поворотов / скачков / ловушек ИИ-контента — например, человек, просматривающий видео о U.С. милитари, а затем ему рекомендовали женоненавистническое видео под названием «Мужчина унижает феминистку в вирусном видео».

В другом случае человек посмотрел видео о правах на программное обеспечение, а затем ему порекомендовали видео о правах на оружие. Итак, два человека сразу же делают еще одну неверную рекомендацию YouTube.

В третьем примере, человек посмотрел музыкальное видео Арта Гарфанкеля, а затем ему порекомендовали политический видеоролик под названием «Модератор дебатов о Трампе ОБНАРУЖЕН как имеющий глубокие демократические связи, предвзятость СМИ достигает точки РАЗРЫВА.”

На что единственный разумный ответ: ммм что ???

YouTube в таких случаях кажется — в лучшем случае — своего рода «пердом мозга ИИ».

Великолепная интерпретация может заключаться в том, что алгоритм глупо запутался. Хотя в ряде примеров, приведенных в отчете, путаница приводит пользователей YouTube к контенту с правыми политическими предубеждениями. Что кажется любопытным.

На вопрос о том, что она считает наиболее важными выводами, Геуркинк из Mozilla ответила TechCrunch: «Во-первых, дезинформация стала доминирующей проблемой на платформе.Я думаю, что это то, что, основываясь на нашей работе, общаясь со сторонниками Mozilla и людьми со всего мира, это действительно очевидная вещь, которая беспокоит людей в Интернете. Поэтому меня действительно беспокоит то, что именно это становится самой большой проблемой алгоритма YouTube ».

Она также выделила проблему того, что рекомендации хуже для неанглоязычных пользователей, как еще одну серьезную проблему, предположив, что глобальное неравенство в восприятии пользователями воздействий платформ «не привлекает достаточного внимания» — даже когда такие вопросы действительно обсуждаются .

В ответ на сообщение Mozilla представитель Google отправил нам следующее заявление:

Цель нашей системы рекомендаций — познакомить зрителей с любимым контентом, и в любой день только на главной странице рекомендуется более 200 миллионов видео. Для информирования наших систем используется более 80 миллиардов единиц информации, в том числе ответы зрителей на опросы о том, что они хотят смотреть. Мы постоянно работаем над улучшением работы на YouTube, и только за последний год мы внесли более 30 различных изменений, чтобы уменьшить количество рекомендаций, содержащих вредоносный контент.Благодаря этому изменению потребление пограничного контента, которое исходит из наших рекомендаций, теперь значительно ниже 1%.

Google также заявил, что приветствует исследования YouTube, и предложил изучить варианты привлечения внешних исследователей для изучения платформы, не предлагая ничего конкретного по этому поводу.

В то же время в его ответе спрашивалось, как в исследовании Mozilla определяется «достойный сожаления» контент, и далее утверждалось, что его собственные опросы пользователей обычно показывают, что пользователи довольны контентом, который рекомендует YouTube.

В дальнейших некотируемых комментариях Google отметил, что ранее в этом году он начал раскрывать метрику «нарушающий коэффициент просмотров» (VVR) для YouTube, впервые раскрывая процент просмотров на YouTube, полученных из контента, нарушающего его политику.

Самый последний показатель VVR составляет 0,16% -0,18%, что, по словам Google, означает, что из каждых 10 000 просмотров на YouTube 16-18 приходится на оскорбительный контент. В нем говорится, что этот показатель снизился более чем на 70% по сравнению с тем же кварталом 2017 года, что объясняет его инвестиции в машинное обучение, которые в значительной степени ответственны за это падение.

Однако, как отметил Геуркинк, VVR имеет ограниченное использование без того, чтобы Google выпускал дополнительные данные для контекстуализации и количественной оценки того, насколько сильно его ИИ участвовал в ускорении просмотра контента, его собственное состояние правил не должно просматриваться на его платформе. Без этих ключевых данных должно быть подозрение, что VVR — это неплохое средство для отвлечения внимания.

«Что можно было бы пойти дальше, чем [VVR] — и что было бы действительно, действительно полезно — это понимание, какую роль в этом играет алгоритм рекомендаций?» Геуркинк рассказал нам об этом, добавив: «Это и есть полный черный ящик.В отсутствие большей прозрачности к заявлениям [Google] о прогрессе следует относиться с недоверием ».

Google также отметил изменение в 2019 году, которое он внес в то, как рекомендательный алгоритм YouTube обрабатывает «пограничный контент» — он же контент, который не нарушает политики, но попадает в проблемную серую зону, — заявив, что эта настройка также привела к снижению на 70% время просмотра этого типа контента.

Хотя компания подтвердила, что эта пограничная категория является подвижным пиршеством, заявив, что она влияет на изменение тенденций, а также в контексте, а также работает с экспертами, чтобы определить, что считается пограничным, что делает вышеупомянутое процентное снижение довольно бессмысленным, поскольку нет фиксированной базовой линии меры против.

Примечательно, что в ответе Google на отчет Mozilla не упоминается о неудовлетворительном опыте работы участников опроса на неанглоязычных рынках. И Геуркинк предположил, что в целом многие из заявленных мер по смягчению последствий, которые применяет YouTube, географически ограничены — т. Е. Англоязычными рынками, такими как США и Великобритания (или, по крайней мере, первыми появятся на этих рынках, прежде чем будет происходить более медленное развертывание в других местах. )

Настройка от января 2019 г., призванная уменьшить распространение содержания теории заговора в U.S. был распространен на рынок Великобритании только несколько месяцев спустя — например, в августе.

«В течение последних нескольких лет YouTube сообщал только о том, как они рекомендуют вредный или пограничный контент в США и на англоязычных рынках», — также сказала она. «И очень мало людей задаются вопросом — а как насчет остального мира? Для меня это действительно заслуживает большего внимания и тщательного изучения ».

Мы попросили Google подтвердить, применяли ли с тех пор изменения, связанные с теорией заговора 2019 года, во всем мире, и пресс-секретарь сообщила нам об этом.Однако следует отметить гораздо большее количество сообщений, поступающих в Mozilla о «прискорбном» контенте, созданном на неанглоязычных рынках.

И хотя могут иметь место и другие факторы, которые могут объяснить некоторые из непропорционально более высоких показателей отчетности, результаты также могут свидетельствовать о том, что, когда речь идет о негативном воздействии YouTube, Google направляет наибольший ресурс на рынки и языки, где его репутационный риск и возможности технологии машинного обучения для автоматизации категоризации контента.

Тем не менее, любая такая неравномерная реакция на риск ИИ, очевидно, означает подвергание одних пользователей большему риску причинения вреда, чем другим, — добавление еще одного вредного аспекта и уровня несправедливости к тому, что уже является многогранной проблемой.

Это еще одна причина, по которой предоставление мощным платформам возможности оценивать собственные ИИ, отмечать собственные домашние задания и противодействовать искренним опасениям с помощью корыстного пиара — для птиц.

(В дополнительных справочных замечаниях, которые он прислал нам, Google описал себя как первую компанию в отрасли, которая включила «авторитетность» в свои алгоритмы поиска и обнаружения, не объясняя, когда именно она утверждает, что это сделала, или как она себе это представляла. в состоянии выполнить заявленную миссию «систематизировать мировую информацию и сделать ее универсально доступной и полезной» без учета относительной ценности источников информации.Так что окрасите нас озадаченными этим заявлением Скорее всего, это неуклюжая попытка бросить тень дезинформации на соперников.)

Возвращаясь к вопросу о регулировании, предложение ЕС — Закон о цифровых услугах — призвано ввести некоторые требования прозрачности на крупных цифровых платформах как часть более широкого пакета мер подотчетности. Спрошенный об этом, Геуркинк охарактеризовал DSA как «многообещающее средство для большей прозрачности».

Но она предположила, что законодательство должно идти дальше, чтобы заняться системами рекомендаций, такими как YouTube AI.

«Я думаю, что прозрачность в отношении рекомендательных систем, а также людей, контролирующих ввод своих данных, а затем вывод рекомендаций, действительно важна — и это место, где DSA в настоящее время немного редок, поэтому я думаю, что именно здесь нам действительно нужно закопаться », — сказала она нам.

Одна идея, которую она высказала в поддержку, заключается в том, чтобы включить в закон «структуру доступа к данным» — чтобы позволить проверенным исследователям получать больше информации, необходимой им для изучения мощных технологий искусственного интеллекта — i.е., а не закон, пытающийся составить «подробный список всех различных элементов прозрачности и информации, которые должны быть применимы», как она выразилась.

У ЕС теперь есть проект постановления об ИИ. Законодательный план использует подход, основанный на оценке риска, для регулирования определенных приложений искусственного интеллекта. Однако неясно, попадет ли система рекомендаций YouTube в одну из более строго регулируемых категорий — или, что кажется более вероятным (по крайней мере, с первоначальным предложением Комиссии), полностью выйдет за рамки планируемого закона.

«В более раннем черновике предложения говорилось о системах, которые манипулируют поведением человека, что, по сути, и есть рекомендательные системы. И можно также утверждать, что это в некотором смысле цель рекламы в целом. Таким образом, было сложно понять, где именно рекомендательные системы попадут в эту категорию », — отметил Геуркинк.

«Возможно, существует хорошая гармония между некоторыми надежными положениями о доступе к данным в DSA и новыми правилами AI», — добавила она. «Я думаю, что все сводится к прозрачности, поэтому все, что может обеспечить такую ​​большую прозрачность, — это хорошо.

«YouTube также может предоставить много такого… Мы работали над этим уже много лет, и мы не видели, чтобы они предпринимали какие-либо значимые действия в этом направлении, но я думаю, что это также то, что мы хотим сохранить. разум — очевидно, что на принятие законодательства могут уйти годы. Так что даже если некоторые из наших рекомендаций будут приняты [Google], это станет действительно большим шагом в правильном направлении ».

Эта система искусственного интеллекта научилась понимать видео, просматривая YouTube

Все сеансы Transform 2021 теперь доступны по запросу.Смотри.


Люди понимают события в мире контекстуально, выполняя так называемые мультимодальные рассуждения во времени, чтобы делать выводы о прошлом, настоящем и будущем. Учитывая текст и изображение, которые кажутся безобидными, если рассматривать их по отдельности — например, «Посмотри, сколько людей тебя любят» и изображение бесплодной пустыни, — люди признают, что эти элементы принимают потенциально вредные коннотации, когда они соединены или сопоставлены, например .

Даже лучшие системы искусственного интеллекта борются в этой области.Но есть прогресс, совсем недавно сделанный командой из Института искусственного интеллекта Аллена и Школы компьютерных наук и инженерии Пола Г. Аллена Вашингтонского университета. В препринте, опубликованном в этом месяце, исследователи подробно описывают модели знаний мультимодальных нейронных скриптов (Merlot), систему, которая учится сопоставлять изображения в видео со словами и даже отслеживать события во всем мире, просматривая миллионы видеороликов YouTube с транскрибированной речью. Все это делается неконтролируемым образом, то есть видео не были помечены или категоризированы, что заставляет систему учиться на внутренних структурах видео.

Обучение по видео

Наша способность здраво рассуждать определяется тем, как мы воспринимаем причины и следствия. Обучить машины этому типу «знания сценария» — серьезная проблема, отчасти из-за количества требуемых данных. Например, даже одна фотография людей, обедающих в ресторане, может подразумевать большой объем информации, например, тот факт, что люди должны были договориться, куда пойти, встретиться и войти в ресторан, прежде чем сесть.

Merlot пытается усвоить эти концепции, просматривая видео на YouTube.Много видео на YouTube. Опираясь на набор данных из 6 миллионов видео, исследователи обучили модель сопоставлять отдельные кадры с контекстным представлением транскриптов видео, разделенных на сегменты. Набор данных содержал обучающие видеоролики, дневники повседневных событий, посвященные образу жизни, и видеоролики YouTube, автоматически предлагаемые на популярные темы, такие как «наука» и «улучшение дома», каждый из которых был выбран явно, чтобы побудить модель узнавать о широком спектре объектов, действий и сцены.

Цель состояла в том, чтобы научить Мерло контекстуализировать представления на уровне кадра с течением времени и по произносимым словам, чтобы он мог переупорядочивать скремблированные видеокадры и понимать «зашумленные» расшифровки стенограмм, в том числе с ошибочно строчными буквами, отсутствующей пунктуацией и словами-заполнителями, например «Ммм», «ммм» и «да.Исследователи в значительной степени добились этого. Они сообщили, что в серии качественных и количественных тестов Мерло продемонстрировал сильное «нестандартное» понимание повседневных событий и ситуаций, что позволило ему взять зашифрованную последовательность событий из видео и упорядочить кадры, чтобы они соответствовали друг другу. подписи в связном повествовании, как люди на карусели.

Будущие работы

Merlot — это только последняя работа по пониманию видео в сообществе исследователей искусственного интеллекта. В 2019 году исследователи из Технологического института Джорджии и Университета Альберты создали систему, которая может автоматически генерировать комментарии к видеоиграм «давай поиграем».Совсем недавно исследователи из Microsoft опубликовали препринт с описанием системы, которая может определять, были ли утверждения о видеоклипах правдивыми, путем изучения визуальных и текстовых подсказок. Facebook обучил систему компьютерного зрения, которая может автоматически изучать аудио, текстовые и визуальные представления из общедоступных видеороликов Facebook.

Вверху: Мерло может понять последовательность событий в видео, как показано здесь.

Исследователи из Института Аллена и Вашингтонского университета отмечают, что, как и в предыдущей работе, Мерло имеет ограничения, в том числе из-за данных, выбранных для обучения модели.Например, Мерло может проявлять нежелательные предубеждения, потому что он был обучен только на английском языке и в основном на сегментах местных новостей, которые могут тратить много времени на освещение криминальных историй сенсационным образом. Исследователи признают, что «весьма вероятно», что модели обучения, такие как Мерло, в основном на новостном контенте, могут заставить их изучить расистские модели, а также сексистские модели, учитывая, что наиболее популярными пользователями YouTube в большинстве стран являются мужчины. Исследования продемонстрировали корреляцию между просмотром местных новостей и более явными расовыми представлениями о преступности.

По этим причинам команда не рекомендует развертывать Мерло в производственной среде. Но они говорят, что модель по-прежнему является многообещающим шагом к будущей работе в области мультимодального понимания. «Мы надеемся, что Мерло может вдохновить на будущую работу по изучению видения + языковых представлений более человечным, чем обучение по буквальным подписям и соответствующим изображениям», — написали соавторы. «Модель обеспечивает высокую производительность при выполнении задач, требующих анализа видео и статических изображений на уровне событий.”

VentureBeat

Миссия VentureBeat — стать цифровой городской площадью, где лица, принимающие технические решения, могут получить знания о преобразующих технологиях и транзакциях.

На нашем сайте представлена ​​важная информация о технологиях и стратегиях обработки данных, которая поможет вам руководить своей организацией. Мы приглашаем вас стать участником нашего сообщества, чтобы получить доступ:

  • актуальная информация по интересующим вас вопросам
  • наши информационные бюллетени
  • закрытых важных материалов и доступ со скидкой к нашим призовым мероприятиям, таким как Transform 2021 : Узнать больше
  • сетевых функций и многое другое

Станьте участником

Почему YouTube не следует чрезмерно полагаться на искусственный интеллект для управления своей платформой

Компании социальных сетей испытывают огромное давление, чтобы контролировать свои платформы.Представители органов национальной безопасности настаивают на удалении «террористического контента», родители призывают к удалению «потрясающих видеороликов», маскирующихся под контент для детей, а пользователи лоббируют более агрессивные подходы к разжиганию ненависти или оскорблениям.

Поэтому неудивительно, что первый отчет YouTube о соблюдении принципов сообщества, выпущенный на этой неделе, может похвастаться тем, что в последнем квартале 2017 года было удалено 8 284 039 видео благодаря «сочетанию людей и технологий», которые отмечают контент, нарушающий правила YouTube. .

Но отчет поднимает больше вопросов о политиках YouTube, чем дает ответов, особенно в отношении использования алгоритмов машинного обучения, которые помечают и удаляют контент, потому что они обнаруживают, например, «порнографию, подстрекательство к насилию, домогательства или ненависть. речь.»

Политики отметки и удаления контента становятся все более важными. Поскольку так много речи перекочевало на основные социальные платформы, решения этих платформ об ограничении контента имеют огромные последствия для свободы выражения мнений во всем мире.Платформы, как частные компании, не ограничиваются Первой поправкой, но они играют уникальную и растущую роль в отстаивании свободы слова как ценности, так и права.

Новый отчет YouTube, хотя и является важным шагом на пути к большей прозрачности, не решает этих проблем. Во-первых, хотя он гарантирует, что человек просматривает контент, помеченный искусственным интеллектом, он не описывает стандарты для этого процесса проверки и не показывает, насколько часто люди-рецензенты отклоняют первоначальный флаг машины.Это особенно касается контента, помеченного как «контент насильственного экстремизма». В последнем квартале 2017 года ошеломляющие 98 процентов контента, удаленного за отражение насильственного экстремизма, были помечены машинами, что вызывает опасения, что YouTube может полагаться почти исключительно на автоматизированные инструменты, чтобы пометить контент в первую очередь. Имеется ли на YouTube надежная система для определения того, когда алгоритмически идентифицированный «контент насильственного экстремизма» на самом деле содержит насилие или подстрекательство к насилию? Или «человеческий обзор» означает штамповку того, что машины назвали террористической пропагандой?

Решение о том, что считать «экстремизмом», как известно, сопряжено с трудностями — в лучшем случае оно субъективно, политически и зависит от контекста.Очевидная опасность состоит в том, что усилия по пресечению «экстремистского» контента будут произвольными, будут дискриминировать меньшинства или тех, кто выражает непопулярные взгляды, или будут заметны в репортажах или комментариях, которые имеют решающее значение для общественного дискурса. Помимо сложности определения такой сложной категории, может ли алгоритм отличить контент насильственного экстремизма от комментариев, критикующих его? Эти опасения подчеркивают, почему прозрачность платформы так важна. Более надежный учет практики YouTube позволил бы общественности узнать, как часто видео, помеченные машинными метками, удаляются при каждом типе запрещенного контента.Он также раскроет стандарты YouTube для определения таких категорий, как «контент воинствующего экстремизма». Facebook недавно предпринял шаги по раскрытию правил, которые он применяет при удалении контента, и YouTube должен сделать то же самое.

Отчет YouTube о прозрачности поднимает и другие вопросы о роли машинного обучения в удалении контента. При каких обстоятельствах машины автоматически удаляют контент без какой-либо проверки со стороны человека? Хотя в отчете делается упор на проверку помеченного контента людьми, поясняющее видео YouTube «Жизнь флага» предполагает иное:

Мы разработали мощное машинное обучение, которое обнаруживает контент, который может нарушать наши правила, и отправляет его на проверку человеком.В некоторых случаях это же машинное обучение автоматически выполняет действие, например удаляет спам-видео.

При каких обстоятельствах алгоритм машинного обучения YouTube автоматически удаляет видео, помеченные как потенциально неприемлемые? И сколько видео было удалено без просмотра людьми? Мы знаем, что YouTube (через Google) является партнером Internet Watch Foundation, который идентифицирует известные изображения детской порнографии и предоставляет им различные «цифровые отпечатки пальцев» или хеш-коды.Затем компании, работающие в социальных сетях, используют хэши, чтобы предотвратить публикацию изображений. YouTube и другие компании адаптируют этот подход, чтобы предотвратить публикацию или распространение материалов воинствующего экстремизма. Если оставить в стороне многочисленные вопросы о том, как контент считается экстремистским и выбирается для обмена хешем, может ли YouTube использовать другие методы для автоматического удаления нехешированного контента, который был успешно загружен? Объясняющее видео не объясняет.

Наконец, в отчете не рассматривается важный вопрос, лежащий в основе более широкого перехода платформ к машинному обучению.Если машины учатся на человеческих решениях, как компании гарантируют, что машины не воспроизводят или даже не усугубляют человеческие предубеждения? Будь то в контексте прогнозируемой работы полиции или распределения льгот по программе Medicaid, мы постоянно предостерегаем от чрезмерного использования машинного обучения, которое может просто объединить наши предубеждения и механизировать их. Этот риск кажется особенно острым в контексте «насильственного экстремизма», где человеческие предубеждения имеют глубокие корни. Как YouTube гарантирует, что его мощная технология не участвует в том же расовом или религиозном профилировании, которое он, возможно, узнал от рецензентов?

СДЕЛАЕТ ЛИ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ НАС БЕСПЛАТНЫМИ?

Нет простых решений.Такие компании, как YouTube, сталкиваются с давлением со стороны правительства и общественности, заставляя их закрыть контент или закрыть себя. Некоторые компании пытаются разработать тонкие способы решения этой проблемы. Facebook, например, объявил на этой неделе, что будет внедрять процесс обжалования удаленного контента и выпустил свои внутренние инструкции по определению контента. Это важные изменения, даже если они недостаточны.

YouTube должен уточнить, как работают его механизмы удаления.В противном случае у нас нет возможности гарантировать, что машины не уйдут слишком далеко.

По мере того как алгоритмы берут верх, рекомендации YouTube подчеркивают человеческую проблему.

YouTube — это суперкомпьютер, работающий для достижения определенной цели — заставить вас проводить на YouTube как можно больше времени.

Но никто не сказал системе, как именно это сделать. После того, как YouTube создал систему, которая рекомендует видео своим пользователям, бывшие сотрудники, такие как Гийом Часло, инженер-программист в области искусственного интеллекта, который работал над механизмом рекомендаций сайта в 2010-2011 годах, сказал, что наблюдал, как он начал подталкивать пользователей к видео с заговорами.Часло сказал, что сложная система «машинного обучения» платформы, которая использует метод проб и ошибок в сочетании со статистическим анализом, чтобы выяснить, как заставить людей смотреть больше видео, выяснила, что лучший способ заставить людей проводить больше времени на YouTube — это показ их видео освещают факты, но изобилуют дикими домыслами.

Обычный поиск на YouTube может генерировать качественные, персонализированные рекомендации, которые приводят к хорошей информации, захватывающим историям от независимых голосов и из авторитетных источников новостей.

Но они также могут возвращать рекомендации для видеороликов, в которых, например, утверждается, что Земля плоская, инопланетяне находятся под Антарктидой, а выжившие после массовых расстрелов — участники кризиса.

За несколько щелчков мышью, поиск по запросу «Сатурн» и другим научным темам на YouTube приводит к рекомендациям по группам заговоров и пропагандистских видео. YouTube

Это проблема не только YouTube. Исследование Часло на YouTube, опубликованное им ранее в этом году, усилило обеспокоенность по поводу распространения подобных алгоритмов в современном обществе.

«Они используются, чтобы дать нам кредитный рейтинг, чтобы решить, пройти ли вам собеседование при приеме на работу, оценить ваше заявление в колледж. Все они используют алгоритмы », — сказала специалист по анализу данных Кэти О’Нил, автор книги« Weapons of Math Destruction ».

«Все эти бюрократические системы принятия решений» используют алгоритмы, сказала она, даже в рамках процесса вынесения приговора. Некоторые штаты используют эти компьютерные модели для определения продолжительности тюремного заключения или установления размера залога, которые некоторые критики обвиняют в сохранении расовой предвзятости.

Алгоритмы, обученные на основе человеческих данных, теперь присутствуют в повседневной жизни миллиардов людей. И 2,2 миллиарда из них находятся на YouTube.

На сайте поражает простота, с которой человека можно перенести от любого безобидного поиска на безумную окраину YouTube. Этот репортер помогал своему сыну исследовать космическое пространство для его школьного проекта. Когда он искал «Сатурн», первыми результатами были в основном документальные фильмы. Один из рекомендуемых видеороликов — «10 фактов о космосе, которых вы не знали.«Это видео привело к дополнительным рекомендациям, таким как видео« Можете ли вы в это поверить », синтезированный голос, читающий предсказания Нострадамуса, и клип пропутинской пропаганды« Они не хотят, чтобы вы смотрели ».

То, что начиналось как простой поиск забавных научных фактов для детсадовцев быстро привел к обширной экосистеме заговора.

Вниз по кроличьей норе

Ежедневно YouTube обслуживает около миллиарда пользователей, которые смотрят миллиарды часов видео. Люди используют его для поиска новейшей музыки видео, узнайте, как починить машину, и напишите исследовательские работы.Видео с сайта также попадают в результаты поиска Google, расширяя их охват до миллиардов поисковых запросов в день.

YouTube, как одно из наших основных окон в мир, формирует наше понимание этого мира. Огромный объем информации, доступной внутри, побудил генерального директора Сьюзан Войчицки назвать сайт «библиотекой».

И YouTube — лишь его часть. Алгоритм поиска Google и алгоритм ленты новостей Facebook также служат фильтрами информации для миллиардов людей.

«Со времен Возрождения была построена инфраструктура для обеспечения целостности информации и знаний в библиотеках с множеством слоев« привратников », — писал Дэвид Кэрролл, доцент кафедры медиа-дизайна в Новой школе и известный критик онлайн-платформ. , по электронной почте. «YouTube отказывается от всего этого во имя беспрепятственного получения контента и алгоритма, оптимизированного для времени просмотра для продажи рекламы».

Часло, инженер-программист в области искусственного интеллекта, работал над проектом по разнообразию рекомендаций YouTube по видео, начиная с 2010 года.Он сказал, что это не так хорошо для времени просмотра, поэтому он был отключен и не использовался.

«Это опасно, потому что это алгоритм, который заставляет людей поверить в то, что все лгут им только ради времени просмотра», — сказал он.

Его перевели в другую группу, но он пытался продолжить первоначальный проект. По словам представителя YouTube, в 2013 году Часло уволили из-за проблем с производительностью.

Оказавшись на свободе, Часло сказал, что создал программу для анализа того, как алгоритм рекомендовал видео с заговорами, используя учетную запись YouTube без истории просмотров для поиска определенных тем и сбора того, какие видео были рекомендованы пользователям больше всего.

Это означает, что, хотя «хорошие» или «безобидные» видео могут быть включены в набор рекомендаций, YouTube неоднократно предлагал пользователям нажимать на одни видеоролики гораздо чаще, чем на другие, по сути давая им бесплатную рекламу. Первоначально Часло поделился своими исследованиями с The Guardian.

Его анализ показал, что при поиске по запросу «Земля плоская или круглая?» Самая главная рекомендация, которую YouTube продолжал показывать пользователям в начале февраля, была «ЛУЧШЕЕ ВИДЕО о плоской Земле | 100% доказательство того, что Земля плоская | Пожалуйста, опровергните это, я смею вас !!!!» за которыми следуют «10 основных причин, по которым люди считают, что Земля ПЛОСКАЯ!» и «ЛУЧШЕЕ ДОКАЗАТЕЛЬСТВО ПЛОСКОЙ ЗЕМЛИ 2017 — ВЫ НЕ МОЖЕТЕ ОТРИЦАТЬ ЭТО ДОКАЗАТЕЛЬСТВО».«

Поиск трагедий может привести к еще более тревожным результатам. Если вы искали« Sandy Hook Shooting »в ноябре 2017 года, одним из самых рекомендуемых видео было теперь удаленное« ВЕРЬТЕ СОБСТВЕННЫМ ГЛАЗАМ — 11 сентября — «БЕЗ САМОЛЕТОВ» , «за которыми следуют видеоролики, в которых утверждается, что стрельба в школе в Коннектикуте и ее жертвы были подделкой.

Модель Часло показала, что YouTube рекомендовал видеоролики о заговоре гораздо чаще, чем другие, по определенным критериям поиска. algotransparency.org

Исследователи из Гарварда провели собственное испытание и обнаружили что алгоритм чаще привлекает зрителей к экстремальному содержанию и необоснованным теориям заговора правого толка.

Эксперты говорят, что видео о заговоре идеально подходят для того, чтобы нажимать на наши кнопки и вовлекать нас, чтобы потреблять больше из них — признаки того, что алгоритм YouTube отдает приоритет, писал Роберт Дж. Бласкевич-младший, обозреватель Комитета по скептическим расследованиям, не являющийся экспертом. коммерческая образовательная организация, которая применяет научный анализ к утверждениям теории заговора, по электронной почте.

«Истории о заговоре влияют на наши эмоциональные триггеры борьбы или бегства, — писал Бласкевич. — И истории основаны на неустановленной предпосылке, что знание заговора защитит вас от манипуляций.Это само по себе заставляет людей смотреть и впитывать столько, сколько они могут, и повторно посещать видео ».

Эмоции, которые они вызывают, заразительны, сказал он, и они предоставляют готовые объяснения сложных и трудных новостных событий.

По популярным спрос

YouTube заявил, что он просто отражает то, что пользователи хотят видеть, а видео выбираются на основе их индивидуального профиля и истории просмотров.

Публично руководители заявили, что алгоритм рекомендаций определяет более 70 процентов контента, просматриваемого на YouTube, и что они становятся все лучше и лучше в этом все время.

«Наша работа состоит в том, чтобы предоставить пользователю постоянный поток, почти синтетический или персонализированный канал», — сказал директор по продуктам YouTube Нил Мохан на CES, ежегодной конференции по потребительским технологиям в Лас-Вегасе в январе.

«Выше Время просмотра означает больше рекламного инвентаря, — сказал Остин Молдоу, исследователь рынка ценных бумаг из Canaccord Genuity, фирмы финансовых услуг из Нью-Йорка. — Больше рекламы, больше доходов ».

Но то, что люди хотят что-то смотреть, не означает им это нравится.YouTube должен найти баланс между защитой своей прибыли и доверием пользователей. «Если не пойти по плану, это может начать подрывать ценность для пользователя», — сказала Кара Свишер, исполнительный редактор Recode и соавтор MSNBC.

«Я думаю, что проблема не только в Youtube, но и в Google, Facebook, всех этих компаниях заключается в том, что они ставят рост выше всего остального. Возможно, они и не собираются этого делать, но если рост — это цель, то удобство для пользователей не цель, — сказал Свишер. — Настоящие пользователи, те, кого вы пытаетесь привлечь, уходят.И поэтому с точки зрения бизнеса в их интересах убирать это место и иметь больший контроль над ним, и есть моральная ответственность создать платформу, которой никто не злоупотребляет »

« Хорошие рекламодатели не делают » Я тоже не хочу быть рядом с такими видео », — добавила она.

Использование алгоритма YouTube — это кустарная индустрия. Создатели видео, которые следуют правилам, могут получать долю дохода от рекламы. По словам Бекки Льюис, исследователя в Data & Society, некоммерческой организации из Нью-Йорка, тенденции, одобренные алгоритмом, быстро включаются и загружаются опытными создателями.В конечном итоге, если система рекомендаций продвигает видео с заговорами, YouTube поощряет создание большего количества таких видео.

Но эти цифровые бульварные каналы могут не только продвигать дезинформацию и уделять ей приоритетное внимание, но и искажать демократию. Прямо перед президентскими выборами в США в 2016 году исследование Часло показало, что более 80 процентов рекомендованных видео посвящены Дональду Трампу. Поиск «Трампа» приводит к видео-рекомендациям в поддержку Трампа. Поиск «Клинтона» вызывал в основном антиклинтонские видеорекомендации.

Нет быстрого решения

YouTube предпринял шаги, чтобы уменьшить стимулы для некоторых из наиболее серьезных нарушителей. Контент, такой как массовые расстрелы, не может приносить своим создателям доход от рекламы через YouTube.

Тем не менее, это не мешает авторам включать ссылки для прямых пожертвований в описания своих видео, в своих интернет-магазинах товаров, партнерские ссылки на приложения или платные упоминания в видео.

В заявлении для NBC News представитель YouTube сказал, что «наша система рекомендаций существенно изменилась с течением времени и больше не работает так, как пять лет назад.Если раньше он использовался для оптимизации «времени просмотра», то теперь он начал смещать акцент на «удовлетворение», уравновешивая время просмотра с дополнительными точками данных, такими как лайки, антипатии, репосты и опросы. По словам пресс-секретаря, YouTube также изменил свой алгоритм, чтобы лучше отображать авторитетные источники новостей, особенно последние новости.

Согласно YouTube, ни одна из рекомендательных систем, над которыми работал Часло, когда работал в Google, сегодня не используется.

Критики опасаются, что несколько обновлений не решат основную проблему, сказал Тристан Харрис, который ранее работал специалистом по этике дизайна в Google, а теперь критикует своего бывшего работодателя, возглавляя новую группу бывших технологов из Сан-Франциско. позвонил в Центр гуманных технологий.

Использование алгоритмов создает экспоненциальные решения, по одному для каждого клиента или гражданина, а также экспоненциальные проблемы.

«У вас не может быть экспоненциальных последствий с экспоненциальной ответственностью, если у вас нет экспоненциального количества человеческих мыслей, которые можно было бы посвятить этим вызовам», — сказал Харрис. «И вы не можете поместить это просто в алгоритм».

лучших каналов машинного обучения YouTube, на которые следует подписаться

Машинное обучение произвело революцию в мире за очень короткий промежуток времени.Поскольку данные растут с экспоненциальной скоростью, нам необходимо научиться их обрабатывать и извлекать из этого ценные сведения.

Машинное обучение — это область, которая объединяет статистику и разработку программного обеспечения в одну профессию, основной целью которой является построение прогнозных моделей.

Чтобы оставаться на передовых позициях, нам нужно постоянно узнавать что-то новое. Один из моих любимых способов — учиться у более умных людей и, если возможно, делать это бесплатно.

И один из самых эффективных способов сделать это — подписаться на лучшие каналы YouTube, посвященные машинному обучению.Это отличный источник знаний, последних тенденций и простой способ развить новые навыки.

В этой статье мы рассмотрим лучших 14 каналов YouTube , чтобы вы могли использовать свои знания в области машинного обучения.

1. Sentdex

Если вы любите разбираться во всем с нуля, то это, безусловно, лучший канал YouTube для изучения машинного обучения.

Харрисон Кинсли , владелец канала YouTube Sentdex знакомит людей с различными технологиями, включая программирование на Python, веб-разработку, машинное обучение и т. Д.

Если вы хотите изучить рабочий процесс каждого алгоритма, например, как смещение и перехват обновляются в каждую эпоху, или как реализовать данный алгоритм машинного обучения с нуля, то вы должны проверить следующие серии, сделанные самим Харрисоном Кинсли .

Канал: Sentdex

2. Школа данных

Кевин Маркхэм , основатель школы данных . i o и владелец канала YouTube Data School обучает энтузиастов машинного обучения. Вы можете получить полное представление о машинном обучении независимо от вашего образования благодаря преподаванию Кевина .

Кевин также делает видеоролики, охватывающие несколько инструментов, таких как pandas, NumPy, scikit-learn, которые помогут вам создавать модели машинного обучения.

Вы можете просмотреть следующую серию, созданную Кевином, чтобы получить хорошее представление об основах машинного обучения.

Канал: Data School

3. Искусственный интеллект — все в одном

На канале «Искусственный интеллект — все в одном» доступны отличные курсы, которые преподают такие эксперты, как Эндрю Нг , Нитиш Шривастава , Джеффери Хинтон .

Курсы по искусственному интеллекту — все в одном охватывают такие темы, как интеллектуальный анализ текста, поиск текста и поисковые системы, нейронные сети и компьютерное зрение .

Вы можете ознакомиться со следующей серией статей, чтобы лучше понять концепции машинного обучения, которые преподает сам Эндрю Нг .

Канал: искусственный интеллект — все в одном

4. Deeplearning.ai

«Глубокое обучение — это суперсила . . С его помощью вы можете заставить компьютер видеть , синтезировать новый арт , перевести языков на , поставить медицинский диагноз или построить части автомобиля, которые могут управлять собой .Если это не сверхдержава, я не знаю, что это такое ». — Эндрю Нг

Если вы хотите глубоко погрузиться в глубокое обучение, вам следует ознакомиться со следующей серией.

Канал: deeplearning.ai

5. Машинное обучение с Филом

Фил Табор (Phil Tabor) — инженер по машинному обучению, который создает обучающие видеоролики в области машинного обучения и глубокого обучения.

Он создал отличный плейлист с обучающими материалами по глубокому обучению с подкреплением, в которых он преподает основные концепции обучения с подкреплением, такие как глубокие детерминированные градиенты политики в TensorFlow 2, мягкий актер-критик в PyTorch, Robotic Control с TD3 и многие другие.

Канал: машинное обучение с Филом

6. Джереми Ховард

Джереми Ховард (Jeremy Howard) — специалист по данным, имеющий образование в области философии, но позже из любопытства он применил знания статистики и программирования, чтобы быстро построить наиболее эффективную и простую в использовании библиотеку для задач глубокого обучения.


МОЖЕТ ЗАИНТЕРЕСОВАТЬ ВАС
Прочтите, как отслеживать метаданные обучения модели с помощью интеграции Neptune-fastai.


Создание моделей глубокого обучения никогда не было таким простым делом, пока не появился fast.ai. Если вы тот, кто хочет создавать модели глубокого обучения, которые выполняют задачи в области компьютерного зрения, такие как сегментация изображений, классификация изображений, восстановление изображений с минимальным кодированием и максимальными результатами, то fast.ai подходит для вас.

Возможно, вам захочется посмотреть следующую серию, чтобы получить хорошее представление о глубоком обучении с помощью поста.библиотека AI.

Канал: Джереми Ховард

7. Двухминутные документы

Two Minute Papers — отличный канал для всех, кто любит быть в курсе последних исследований в области машинного обучения.

Two Minute Papers — это двухминутные (почти) длинные видео, объясняющие исследовательскую работу.

Если вы увлечены исследованиями, то можете ознакомиться со следующей серией

Канал: двухминутные документы

8.Лекс Фридман Подкаст

Lex Fridman Podcast — один из самых популярных и лучших каналов YouTube по машинному обучению. Его ведущий — исследователь искусственного интеллекта, работающий над автономными транспортными средствами, взаимодействием человека с роботом и машинным обучением в Массачусетском технологическом институте и за его пределами.

Лекс обсуждает со своими гостями все, что связано с искусственным интеллектом и машинным обучением. Но он не ограничивается только этой темой. Он говорит о других вещах, которые могут вдохновить, научить и подтолкнуть вас к превышению ваших ограничений.

Идеи всех суперзвезд, влиятельных лиц и ведущих ученых из мира машинного обучения.Он брал интервью у таких людей, как Илон Маск, Ник Бостром, Эндрю Нг, Янн ЛеКун, Владимир Вапник, Мэт, Ботвиник и многих, многих других.

У него также есть второй канал на YouTube под названием Lex Clips, где он размещает отрывки из своего подкаста и другие видео.

9. Kaggle

Канал

Kaggle — это место на YouTube, где вы можете погрузиться в мир сообщества Kaggle, узнать и заняться наукой о данных.

Канал предлагает видеоролики с интервью с аналитиками данных, уроками и полезными советами.

Это один из лучших каналов YouTube по машинному обучению для всех, кто хочет изучать трюки, экспериментировать и внедрять новые методы в свою работу, независимо от того, в какой среде вы работаете.

10. Arxiv Insights

Arxiv Insights — канал, принадлежащий Ксандеру Стинбрюгге. Он резюмирует свои основные выводы с технической точки зрения, делая их доступными для более широкой аудитории.

Если вам нравятся технические подробности в области машинного обучения и искусственного интеллекта, но вы хотите получить хорошее резюме сложных и технических тем, это подходящее место для вас!

Хотя автор не часто загружает видео на регулярной основе, канал хвалят за интересный контент.

11. Облачная платформа Google

Было бы грехом не подписаться на Google Cloud Platform. На канале вы можете познакомиться с такими темами, как безопасная инфраструктура, инструменты разработчика, API, аналитика данных и машинное обучение.

Этот канал ML на YouTube позволяет узнать о том, как все работает в Google, как стать лучшим специалистом по обработке данных и обо всем, что связано с Google.

Вот интересное видео о Google Data Center Security: 6 Layers Deep

12.DeepLearning.TV

DeepLearning.TV — это глубокое обучение. На канале представлены такие темы, как инструкции, обзоры программных библиотек и приложений, а также интервью с ключевыми специалистами в этой области.

Существует также серия концептуальных видеороликов, демонстрирующих интуицию, лежащую в основе каждого метода глубокого обучения, чтобы вы могли лучше понять, как работает глубокое обучение.

13. Трамплин

Канал

Springboard посвящен науке о данных. Есть беседы по науке о данных и машинному обучению с экспертами из ведущих компаний, плейлист Women in Data Science с интересными беседами с женщинами, которые работают в сфере машинного обучения, глубокие погружения или мини-уроки.

Это отличный YouTube с машинным обучением для тех, кто хочет узнать, как устроиться на работу, на что обращать внимание, и узнать, что значит работать в области анализа данных.

14. Подкаст TWIML AI с Сэмом Чаррингтоном

Если вы ищете последние новости из мира машинного обучения, обязательно загляните на канал подкаста TWIML (This Week in Machine Learning) на YouTube.

Здесь вы найдете самые интересные и важные истории из мира машинного обучения и искусственного интеллекта каждую неделю.Это отличный источник информации и знаний для всех, кто хочет быть в курсе последних тенденций, инноваций и получать интересные идеи от экспертов в области машинного обучения.

Заключительные мысли

Мы перечислили лучшие каналы для бесплатного изучения машинного обучения, но вы должны быть непреклонны, чтобы изучить его, и вы можете научиться машинному обучению, только применяя свои знания на практике.

Желаем удачи в пути к машинному обучению. 🙂

Инструктор по Python и машинному обучению | Основатель компании probog.com


ЧИТАТЬ СЛЕДУЮЩИЙ

Отслеживание экспериментов ML: что это такое, почему это важно и как это реализовать

10 минут на чтение | Автор Якуб Чакон | Обновлено 14 июля 2021 г.

Позвольте мне рассказать историю, которую я слышал слишком много раз.

”… Мы вместе с моей командой разрабатывали модель машинного обучения, мы провели много экспериментов и получили многообещающие результаты…

… к сожалению, мы не могли точно сказать, что работает лучше всего, потому что мы забыли сохранить некоторые параметры модели. и версии наборов данных…

… через несколько недель мы даже не были уверены, что мы на самом деле пробовали, и нам нужно было перезапустить почти все »

— несчастный исследователь машинного обучения.

И правда в том, что когда вы разрабатываете модели машинного обучения, вы проводите множество экспериментов.

Эти эксперименты могут:

  • используют разные модели и гиперпараметры моделей
  • используют разные данные обучения или оценки,
  • запускают другой код (включая это небольшое изменение, которое вы хотели быстро протестировать)
  • запускают тот же код в другой среде (не зная, какой PyTorch или Была установлена ​​версия Tensorflow)

И в результате они могут производить совершенно разные показатели оценки.

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *