«Азербайджан проигрывает в гонке искусственного интеллекта» | ВИДЕОИНТЕРВЬЮ

  01 ОКТЯБРЯ 2024    Прочитано: 897
«Азербайджан проигрывает в гонке искусственного интеллекта» | ВИДЕОИНТЕРВЬЮ

«К сожалению, я вижу Азербайджан потребителем в сфере искусственного интеллекта. Наша политика в этом направлении и шаги, предпринимаемые некоторыми институтами, оказывают большее влияние на поведение потребителей. Очень важно поддерживать идеи, чтобы двигаться вперед.

Об этом в интервью AzVision.az сказал эксперт по высоким технологиям и искусственному интеллекту Эльвин Аббасов.

По его словам, в Азербайджане не поддерживаются идеи молодежи в сфере IT и других высокотехнологичных сфер. Наши различные фонды инвестируют в реальный бизнес. Молодежное предпринимательство не оценивается на стадии идеи.

- Наши учреждения анонсируют проекты по созданию ИИ. Если посмотреть на это, становится ясно, что они просто подключаются к ChatGPT Open EU, отправляют туда информацию, получают ответ, который анализируется и обрабатывается. То есть у нас нет своей модели ИИ. Мы все еще потребители, мы просто создаем образ программы.

Эксперт говорит, что для создания ИИ нужно в первую очередь начать с полезного контента. Люди должны знать, что невозможно развивать страну, высмеивая социальные сети. Каждый должен создавать полезный контент в своей области знаний и профессии:
- Почему в Азербайджане невозможно создать ИИ? Потому что у нас нет полезного контента. Фактически, сегодня любой может создать ИИ. Модели нейронных сетей уже доступны в Интернете с открытым исходным кодом. Ему просто нужна база данных, чтобы учиться. Поскольку в Азербайджане нет базы данных, модели ИИ не могут быть улучшены.

Для создания ИИ необходим полезный контент, который мы называем «большими данными». Я хотел бы сравнить Азербайджан и Армению в Википедии. На армянском языке 300 000 статей и 150-200 000 пользователей. На азербайджанском языке 200 000 контента и 300 000 пользователей. Мы только недавно дошли до тех 200 000 статей, то есть полезного контента. Из этих 300 000 зарегистрированных пользователей только 30 активны, то есть создают полезный контент.

Мы, как люди, должны стараться создавать полезный контент. Ни одно государственное учреждение не должно этого делать. В этом вопросе общество должно действовать индивидуально в своих национальных интересах. Для создания ИИ необходим обширный контент на азербайджанском языке. Ни в одной стране этого не ждут от государства. Некоторые вопросы являются обязанностью общества, общество должно само развивать эти области. Общество должно отойти от критики и перейти к инновациям, от жалоб и к обработке. Он должен сам что-то создать. Множество жалоб означает, что нужно рассчитывать на месте. Нам пора заняться делом. Мы должны создать что-то, чтобы мы могли развиваться как нация и, развиваясь, оставлять будущим поколениям полезную информацию, кроме слухов, юмора и сплетен.

- Возможно ли использование искусственного интеллекта для дезинформации и манипулирования общественным мнением и общественно-политической мыслью?

- Не напрямую, но в розницу можно. Допустим, мы хотим распространять дезинформацию, но хотим, чтобы она выглядела как академический источник. Даем подсказку Искусственному интеллекту и пишем статью на тему. Мы добавляем к пяти реальным фактам вымышленное событие и распространяем его. Если есть четыре или пять прямых случаев, никто не станет проверять, верен ли шестой.

После этого мы сможем пометить распространяемую нами ранее дезинформацию как источник и даже поднять ее на академический уровень, показав не произошедшее в «Википедии» событие как истину.

Дезинформация сегодня считается главным мотивом крупных гибридных войн. Возникли мотивы запутать общество, отвлечь его внимание, описать несуществующее событие так, как будто оно произошло. На этом уровне ИИ — это инструмент, а значит, мы можем диктовать ему любой сценарий. Но написать 150-страничную научную работу ИИ не сможет. Короче говоря, ИИ не является творческой силой.

В то же время ИИ может точно анализировать и обрабатывать многие вещи, которые мы не учитываем и не упускаем из виду. Это инструмент, который анализирует миллионы источников одновременно, объединяет нужные мотивы и выявляет новый продукт. ИИ не имеет эмоций, предрассудков и чувства любви, не несет в себе человеческих эмоций, это сила анализа и обработки. Это полезный и полезный инструмент для человека.

- Некоторое время назад Илон Маск и Стив Возняк сделали тревожное заявление о важности строгого контроля в этой сфере. Есть ли причина для такого волнения? Или мы ошибочно обеспокоены тем, что хаотичное и неконтролируемое использование ИИ может представлять серьезную угрозу?

- На этот вопрос нет однозначного ответа «да» или «нет». Все зависит от того, делает ли ИИ опасным или безопасным. ИИ – это инструмент, который нуждается в постоянной чистке и корректировке, подключении к сети и питании. Как ИИ будет оборудовать себя и управлять собой без людей? Это требует человеческого труда. Если ИИ уничтожит человека, он уничтожит себя. С другой стороны, чтобы ИИ был настроен против нас, у него должны быть чувства.

Когда была создана Open AI, Илон Маск участвовал в этой компании, но позже ушел. Позже он предпринял несколько небольших попыток самостоятельно создать ИИ. Маск — человек, который хочет 100% успеха для себя и не любит делиться своим успехом. Поэтому я думаю, что этим заявлением Илон Маск просто хочет затормозить деятельность своих конкурентов.

Наиболее рациональная позиция в этом контексте, мне кажется, принадлежит Биллу Гейтсу: «Самой крупной компанией будущего станет та компания, которая создаст лучшего ИИ-помощника». То есть он воспринимает ИИ не как капитал и человека, а как помощника. Короче говоря, ИИ — всего лишь помощник.

- Возможно ли сотрудничество государств для преодоления опасностей, которые могут возникнуть с точки зрения бесконтрольного и неправомерного использования ИИ? Или, как в некоторых областях, каждый сам за себя?

- Существуют международные стандарты и институты для создания любого продукта. Например, одна из них, организация ISO, сотрудничает со всеми странами, в том числе и с нашим «Азстандартом». Как цифровые, так и физические продукты должны быть сертифицированы и адаптированы к эталону, чтобы выйти на международный уровень и к потребителю. В противном случае он не сможет занять место на рынке. Все измеряется стандартами.

В государственных делах меньше мошенничества и злоупотреблений, потому что больше контроля. ИИ также имеет открытый исходный код, здесь много контроля. Так что превратить ИИ в нож – не такая уж и простая задача. Если один захочет превратить его в нож, придут 10, скажут, что это неправильно, и потребуют исправления.

Опасный контент, о котором вы упомянули, создается на индивидуальном уровне. Это продукты, созданные изощренными специальными мошенническими бандами, кибермошенниками. Неправильно делать заявления, которые будут удерживать общество от ИИ. Люди, которые не смогут использовать ИИ, в будущем окажутся в очень слабом положении. На мой взгляд, этому должны научиться представители всех групп. Сегодня социальные сети находятся в центре нашей жизни, и в будущем искусственный интеллект будет стоять на своем. Бояться этого не нужно, ведь ИИ — не враг, а друг.

Сахил Искендеров
AzVision.az

Vzglyad.az

Читайте актуальные новости и аналитические статьи в Telegram-канале «Vzglyad.az» https://t.me/Vzqlyad

Тэги:





НОВОСТНАЯ ЛЕНТА