В рамках онлайн-курса «8 вопросов» мы рассматриваем, как произведения искусства могут помочь разбираться в сложных социальных, культурных и технологических процессах. Один из вопросов, обсуждаемых на прошлом наборе, звучал так: «Почему музею нужны не только искусствоведы, но и программисты?». Этот диалог показал, насколько важно взаимодействие между специалистами в сфере IT и искусства. Современные технологии, включая искусственный интеллект, все активнее применяются в музейной практике, но вместе с их возможностями возникают и риски.
Искусственный интеллект уже стал неотъемлемой частью современной жизни, оказывая влияние на работу с текстами, изображениями, видеоматериалами и звуковыми файлами. Однако остается открытым вопрос: насколько можно доверять подобному «помощнику» и как избежать возможных ошибок?
I. Фальсификация
Искусственный интеллект не способен к самостоятельному творчеству – он лишь анализирует и перерабатывает большие массивы данных. Его можно сравнить с энциклопедией, которая не создает новое, а комбинирует уже существующую информацию. Следовательно, нейросети не создают произведения искусства, а имитируют их.
Если раньше отличить работу алгоритма от подлинного произведения было сравнительно легко, то сегодня эта задача становится все более сложной. Приведем несколько примеров:
DeepBach – алгоритм, разработанный музыковедом Гаэтаном Аджером, сумел создать хоралы, которые в 50% случаев слушатели ошибочно принимали за произведения Иоганна Себастьяна Баха.
Emmy – программа, созданная композитором Дэвидом Коупом, написала музыку в стиле Баха. В ходе эксперимента ее сочинение было исполнено наряду с неизвестным произведением Баха и композицией преподавателя Орегонского университета. По итогам прослушивания слушатели ошибочно приняли произведение преподавателя за работу нейросети, а музыку Баха – за результат деятельности искусственного интеллекта.
Современные алгоритмы способны не только воспроизводить стили художников и композиторов, но и подделывать голоса, создавать фальсифицированные изображения и анимации. Подобные технологии могут быть использованы злоумышленниками как в сфере искусства, так и в повседневной жизни.
II. Недостоверная информация
Искусственный интеллект анализирует данные из открытых источников, однако не осуществляет их проверку на достоверность. Поэтому любую информацию, полученную от нейросетей, необходимо подвергать дополнительной верификации.
Например, при запросе «четыре факта о Анри Матиссе» нейросеть может предоставить следующий перечень:
- Анри Матисс был самоучкой и не получал художественного образования.
- Его поздние работы представляют собой бумажные вырезки.
- Он является основателем фовизма.
- Он оформил капеллу в Вансе.
Однако в данном случае содержится фактическая ошибка. В действительности Анри Матисс получил академическое художественное образование: он обучался в Академии Жюлиана, затем в Школе декоративных искусств, а позднее – в Школе изящных искусств под руководством Гюстава Моро.
Как показывает практика, даже искусственный интеллект может допускать ошибки и вводить в заблуждение. Поэтому при работе с нейросетями следует тщательно проверять полученную информацию и опираться исключительно на проверенные источники.
А если вы хотите узнать больше о плюсах и минусах инструментов, используемых в музеях, обсудить особенности их применения и задать вопросы, на которые может ответить современный музей, то самое время присоединиться к онлайн-программе по абонементу «8 вопросов музею». Первая встреча состоится 2 марта в 16:00.
Приобрести абонемент.
Искусственный интеллект – это мощный инструмент, который активно используется в различных сферах, включая искусство и науку. Однако его применение требует осознанного подхода и критического восприятия. Нейросети могут подражать стилям, создавать имитации произведений и анализировать большие объемы данных, но при этом не гарантируют достоверность информации. Важно помнить, что ИИ не заменяет человека, а лишь помогает ему, и ответственность за конечный результат всегда лежит на пользователе. Проверка фактов и использование надежных источников – ключевые условия безопасного и эффективного взаимодействия с искусственным интеллектом.
В то же время, важно учитывать, что технологии искусственного интеллекта могут использоваться не только в мошеннических, но и в деструктивных целях. В последние годы фиксируются случаи применения ИИ для распространения дезинформации, манипулирования общественным мнением и даже в террористических целях.