Как возникает ИИ?
Уже несколько десятилетий исследователи работают над созданием искусственного интеллекта (ИИ), способного самостоятельно решить проблему. Первоначально работа ведется над символьным ИИ, основанном на правилах. Но эта форма ИИ сильно ограничена. Он подходит только для тех областей, в которых можно определить четкие правила для всех возможных ситуаций. С 1980-х годов был достигнут очень большой прогресс в области самообучающихся программ.
Машинное обучение означает, что компьютер учится принимать решения на основе примеров и опыта, без программирования на решение конкретной задачи. Специальные алгоритмы учатся на демонстрационных данных и разрабатывают модели, которые затем могут использовать для новых, ранее не встречавшихся данных. Когда самообучающиеся системы учатся на очень большом количестве примеров, они самостоятельно разрабатывают обобщенный процесс принятия решений. Однако как самообучающиеся программы приходят к своим решениям, обычно не могут понять даже сами программисты. В зависимости от сложности различают разные уровни машинного обучения: Контролируемое обучение, неконтролируемое обучение, обучение с подкреплением и глубокое обучение.
Контролируемое обучение
При контролируемом обучении люди оценивают обучающие и тестовые данные и распределяют их по группам. В период обучения ИИ учится, например, правильно называть изображение кошки «кошкой». Если алгоритму, обученному выбирать между собакой и кошкой, показать фотографию слона, ИИ не сможет решить эту задачу. Однако, ограниченные узкой областью, эти алгоритмы очень надежны и точны, если обучающие данные достаточно обширны и качественны.
Анализ изображений с помощью обучающих методов уже играет важную роль в диагностике изображений например, при оценке рака кожи.
Неконтролируемое обучение
Неконтролируемым обучением называется обучение, при котором алгоритм получает необработанные нефильтрованные данные. Программа самостоятельно ищет сходства и различия в данных. Цель состоит в том, чтобы выявить интересные и подходящие шаблоны. Однако иногда возникают ошибки, когда ИИ обнаруживает общие черты, особенно на заднем плане изображения, и поэтому дает неверные результаты. Например, если ИИ узнает, что такое „волк“, основываясь исключительно на изображениях с волками на снегу, он назовет „волком“ и другое животное на снегу.
Распознавание взаимосвязей
Одним из текущих направлений исследований Бернхарда Шёлькопфа в Институте интеллектуальных систем им. Макса Планка в Тюбингене является так называемыйая каузальныйая выводинтерференция. Речь при этом идет об алгоритмах, которые на основе данных также могут выявлять каузальные или причинно-следственные связи. Одна из целей – сделать системы ИИ более устойчивыми к внешнему вмешательству. Хорошим примером здесь также является автономное вождение: Если дорожный знак в жилом районе с ограничением скорости установлен таким образом, что на нем вместо 30 км/ч написано «130», человек сразу понимает, что это не может быть правдой – именно потому, что окружающая обстановка дает множество дополнительных подсказок. Для ИИ, с другой стороны, это непростая задача. И все же он должен быть в состоянии сделать это, прежде чем автомобили смогут действительно ездить автономно, иначе серьезные аварии будут неизбежны.
Прежде чем автомобили смогут действительно ездить автономно, ИИ должен научиться распознавать взаимосвязи.
© Решения Bosch для обеспечения мобильности
«Сегодня у нас есть машины, которые уже могут относительно хорошо учиться, но у нас еще нет машин, которые могут думать. Разработка таких машин – вот главная задача».
Бернхард Шёлькопф, директор Института интеллектуальных систем им. Макса Планка в Тюбингене