Цифровой мир стал свидетелем исторического события прошлым летом, когда под влиянием Белого дома семь ведущих технологических компаний обязались придерживаться принципов ответственного ИИ в образовании. В сентябре этот импульс продолжился, когда к этой инициативе присоединились еще восемь компаний, укрепив обязательство изучать общественное влияние ИИ. Это обязательство особенно важно, если мы учтем потенциал ИИ переопределить образование в начальной и средней школе. Однако такой потенциал также подчеркивает необходимость законодательного контроля, чтобы гарантировать ответственное использование ИИ в образовательных контекстах.
Раскрытие потенциала ИИ в образовании
ИИ в образовании имеет большое значение, особенно в области технологии распознавания речи. Эта технология может революционизировать классы, позволяя ученикам использовать свои голоса для выполнения задач, таких как чтение, правописание или оценка уровня владения языком, и получать обратную связь в реальном времени. Сгенерированные данные могут быть бесценным ресурсом для педагогов при настройке учебных планов и методик обучения. Однако эти же инструменты ИИ могут также усугубить существующие неравенства, особенно когда они не учитывают разнообразные речевые особенности и диалекты, присутствующие в современных классах.
Обеспечение прозрачности и ответственности в ИИ
Чтобы обеспечить то, чтобы ИИ в образовании принес пользу всем учащимся, существует неотложная потребность в прозрачности в разработке инструментов ИИ. Эта прозрачность должна охватывать не только проектирование и работу этих инструментов, но и наборы данных, используемые для их обучения. Без представительного набора данных, отражающего разнообразие голосов учащихся, образовательные инструменты, основанные на ИИ, рискуют неправильно понимать или искажать речь учащихся, что может привести к неточной оценке их знаний. Решение этих проблем требует совместных усилий законодателей, руководителей образования и разработчиков технологий. Законодатели должны приоритетно разрабатывать и внедрять политику, устанавливающую высокие стандарты точности и равенства ИИ, а также защищать персональные данные и конфиденциальность.
Активные действия в отсутствие регулирующих рамок
В отличие от прошлых технологических достижений, где регулирование отставало от инноваций, важность ответственного ИИ в образовании требует активного подхода. Руководители образования не могут ждать принятия всеобъемлющего законодательства. Вместо этого они должны установить свои собственные руководящие принципы использования образовательных технологий на основе ИИ. Это начинается с того, что компании, разрабатывающие образовательные технологии, должны предоставлять четкие ответы на ключевые вопросы о своих инструментах на основе ИИ, таких как демографический состав наборов данных для обучения и усилия по борьбе с предвзятостью.
Инструменты, такие как те, что предлагает cryptoview.io, могут стать инструментальными в этом деле. Руководители районов должны рассмотреть возможность использования технологий, которые обеспечивают надежные механизмы защиты. Например, некоммерческая организация EdTech Equity Project предоставляет руководство по закупкам для руководителей районов, включая рубрику для оценки образовательных технологий на основе ИИ. Компании-разработчики также должны гарантировать точность и отсутствие предвзятости своих инструментов на основе ИИ перед их внедрением в классы. Это включает непрерывное тестирование и оценку для обеспечения доступности и инклюзивности для различных демографических групп учащихся.
По мере того, как мы преодолеваем изменяющийся ландшафт ИИ и соответствующего законодательства, важно признать неопределенность, окружающую будущее этой технологии. Несмотря на это, окончательная цель остается ясной: создать образовательные инструменты на основе ИИ, которые снижают человеческую предвзятость, поддерживают педагогов в их преподавании и соответствуют уровню обучения каждого ученика. Эти инструменты имеют потенциал выравнивать образовательное поле, предоставляя равные возможности для всех детей.
