ИИ не только меняет способы обучения детей и их взаимодействия с окружающим миром , но также открывает новые возможности и создает серьезные проблемы для обеспечения безопасной и благоприятной среды для детей.
Искусственный интеллект (ИИ) становится все более важной областью и оказывает глубокое влияние на многие аспекты современной жизни. |
Риски сопряжены с удобством
Благодаря своему интеллекту и вычислительной мощности, искусственный интеллект стал неотъемлемой частью жизни человека, включая детей. ИИ создаёт новые тенденции каждый раз, когда дети получают доступ к интернету, вмешиваясь в образовательные программы, развлечения и т. д., принося множество преимуществ и удобств, но также создавая для детей риски, включая проблемы с защитой конфиденциальности, безопасностью, а также психологические и поведенческие последствия.
ИИ совершил прорыв в улучшении системы образования и методов обучения детей во Вьетнаме; открыл множество возможностей, помогая совершенствовать и развивать навыки детей; предоставил интерактивные обучающие приложения в киберпространстве; поддержал персонализацию; создал интересную и увлекательную среду обучения... Дети могут получить доступ к огромному хранилищу знаний и упражнений и мгновенно получить обратную связь от системы ИИ.
В настоящее время во Вьетнаме некоторые программы программного обеспечения и онлайн-образовательные программы, применяющие технологию искусственного интеллекта, используются многими школами, такими как: Hocmai.vn, VnEdu или GoMaths, STEM young science and technology, Codelearn, CoderSchool...
Мышление и творческие способности детей также развиваются, когда они занимаются развлекательной и игровой деятельностью с использованием программного обеспечения на базе искусственного интеллекта, например, интеллектуальных видеоигр (Garena Lien Quan Mobile, PUBG Mobile или Foody Crush), приложений для рисования (Colorize, Adobe Photoshop)...
Эти программы не только дарят расслабляющее времяпрепровождение и уникальные развлекательные впечатления, но и стимулируют интеллект, творческие способности и логику детей.
Благодаря своему интеллекту и удобству, искусственный интеллект делает жизнь детей проще, автоматизированнее и комфортнее. Такие приложения, как виртуальные помощники, такие как Siri, Google Assistant, Grab..., уже не являются диковинкой и успешно используются детьми, помогая им в повседневных делах, таких как управление смартфонами для поиска информации, бронирование автомобилей, совершение покупок онлайн или планирование расписания... ИИ также применяется в умной бытовой технике, голосовом управлении, например, стиральными машинами, умными холодильниками... чтобы наилучшим образом отвечать потребностям и потребностям детей.
Однако риски, связанные с ИИ, немалы. ИИ меняет способы взаимодействия людей с машинами и между людьми; влияет на психологию и поведение детей; нарушает конфиденциальность и неприкосновенность частной жизни.
В наши дни дети практически слишком зависимы от технологий, особенно от интеллектуального программного обеспечения и приложений, использующих искусственный интеллект. Чем больше дети взаимодействуют с технологиями, тем выше вероятность развития у них депрессии, поведенческих расстройств и даже зависимости, а также сильной зависимости от искусственного интеллекта, особенно в процессе обучения, что снижает их способность мыслить, исследовать, работать и проявлять инициативу.
Более того, благодаря интеллектуальным алгоритмам ИИ может легко проникать в частную жизнь, собирать всю информацию о детях: об увлечениях, личных данных, изображениях... делая жизнь и секреты детей небезопасными. Особенно когда дети не способны понимать и оценивать риски, не осознают серьёзности последствий предоставления личной информации, изображений...
Более того, дети также рискуют получить доступ к нежелательной информации. Все вычисления ИИ основаны на копировании, «механических» вычислениях, без отбора и контроля, поэтому они могут создавать негативную и токсичную информацию, такую как фейковые новости, порнографические изображения, разврат, насилие...
Кроме того, развитие искусственного интеллекта в сфере образования непреднамеренно привело к неравенству, давлению и сравнению среди детей.
Недавно Детский фонд ООН также предупредил о рисках для детей, связанных с ИИ, в частности, отметив, что ИИ может усугубить неравенство и предвзятость, когда некоторые школы используют машины для сортировки заявлений о приёме, но это непреднамеренно исключает определённую группу учащихся. Кроме того, алгоритмы ИИ могут способствовать сравнению детей с другими, вызывая недовольство собой. Это может негативно сказаться на уверенности детей в себе и их психическом здоровье.
Другим важным риском является дисбаланс и разобщенность между людьми. Чрезмерная зависимость от искусственного интеллекта и технологий может привести к потере детьми социальных навыков, способности к прямому общению и построению отношений. Это может иметь негативные последствия для общего развития детей, особенно в эмоциональной и поведенческой сферах. Дети не будут знать, как контролировать и выражать свои эмоции; они не будут знать, как взаимодействовать с окружающими.
Согласно данным, опубликованным поставщиками услуг, по состоянию на март 2023 года vnEdu используется в 57 провинциях и городах, где зарегистрировано более 3 миллионов учащихся из 9000 школ по всей стране; только если считать учащихся старших классов, на курсах программирования FUNiX в настоящее время обучается 3090 студентов; к концу 2020 года на hocmai.vn было зарегистрировано более 4,5 миллионов студентов. |
Защита детей от опасностей ИИ
Использование искусственного интеллекта детьми требует осторожности и тщательного надзора со стороны взрослых. Самое главное — обеспечить обучение и руководство детей безопасному использованию технологий, сохраняя при этом баланс между техническим прогрессом и другими факторами развития ребёнка. Поэтому необходимо обеспечить надлежащее понимание и разумные решения для безопасного доступа детей к искусственному интеллекту и его использования.
Во-первых, необходимо создать безопасную технологическую среду для детей. Государство и соответствующие ведомства должны издать нормативные акты, касающиеся цензуры контента, прежде чем выпускать приложения и программное обеспечение, использующие технологии искусственного интеллекта. В частности, поставщики услуг обязаны предоставлять предупреждения о контенте, связанном с детьми.
Во-вторых, важнейшей мерой, помогающей детям защититься от рисков, связанных с ИИ, является просвещение. Детям необходимо дать базовые знания об ИИ, технологиях, инженерии и т. д., а также навыки межличностного общения с технологиями и социальными сетями.
В частности, он объединяет инструкции по использованию технологий и интеллектуальных приложений с предупреждениями о рисках небезопасности и негативных аспектах этих приложений для детей, а также основные сведения о конфиденциальности и ответственности в Интернете...
В-третьих, необходимы меры по мониторингу и контролю использования детьми технологий искусственного интеллекта. Это означает, что детям не следует предоставлять «свободный» доступ к этим технологиям. Контроль может включать в себя контроль времени, содержания и формы использования для обеспечения безопасности детей, а также предотвращение нежелательных последствий и воздействия на детей. Это включает в себя установление правил использования технологий, мониторинг действий детей в Интернете и создание чата и среды для обсуждения, где дети могут открыто и легко делиться своими мыслями.
В будущем особое внимание в работе по защите детей потребуется уделять защите детей в киберпространстве. (Источник: Интернет) |
В-четвёртых, необходимо руководствоваться подходом детей к использованию искусственного интеллекта. Вместо того, чтобы позволять детям использовать технологии искусственного интеллекта только для развлечения, что может легко привести к негативным последствиям, родителям следует поощрять детей использовать технологии искусственного интеллекта творчески и с пользой; направлять детей к использованию полезного программного обеспечения и приложений для обучения, исследований, размышлений, творчества и т. д.
В-пятых, чтобы дети не использовали ИИ пассивно, а в полной мере использовали его возможности, необходимо развивать у них жизненные навыки и навыки критического мышления. Это включает в себя развитие у детей способности оценивать информацию, мыслить аналитически, решать проблемы и работать в группах. Таким образом, дети не будут зависеть от ИИ, смогут защитить себя от потенциальных рисков и по-настоящему овладеть технологиями.
Такое оснащение может осуществляться посредством организации программ и курсов по жизненным навыкам, навыкам использования и освоения технологий, а также по тому, как защитить себя от таких сетевых рисков, как оскорбления, нарушения и вредоносный контент.
В-шестых, для решения проблем, связанных с искусственным интеллектом, необходима координация действий родителей, учителей, школ, органов власти и поставщиков услуг. Это включает в себя четкое определение обязанностей каждой стороны по защите детей от рисков, связанных с искусственным интеллектом.
Кроме того, должны быть разработаны четкие политики и правила по защите конфиденциальности и персональных данных детей; поставщики услуг ИИ должны взять на себя обязательства по защите личной информации, чтобы обеспечить безопасную среду и защитить детей от жестокого обращения.
Во Вьетнаме программы обучения детей использованию искусственного интеллекта пока ещё относительно новые и не получили широкого распространения. Некоторые организации, образовательные центры и компании уже внедрили программы обучения детей использованию искусственного интеллекта, такие как занятия по робототехнике и программированию, предоставляя детям возможность получить опыт и знания.
Однако для того, чтобы программы обучения детей использованию искусственного интеллекта стали неотъемлемой частью образования во Вьетнаме, необходимы инвестиции и поддержка со стороны правительства и соответствующих ведомств.
Понимание и устранение влияния ИИ на детей жизненно важны. Нам необходимо использовать возможности, предоставляемые технологиями ИИ, обеспечивая при этом защиту и безопасность детей при взаимодействии с ИИ.
Необходима тесная координация действий между государством, органами власти, семьями, школами и поставщиками услуг для создания новой, справедливой и разнообразной образовательной среды, помогая детям понимать и использовать искусственный интеллект разумно и безопасно. Только тогда мы сможем гарантировать, что дети получат пользу и будут развиваться благодаря развитию искусственного интеллекта, станут уверенными в себе, творческими личностями и внесут позитивный вклад в развитие общества в будущем.
Некоторые предложения по правилам использования технологий искусственного интеллекта для детей- Время использования: четко определите время использования технологии ИИ, включая четкое разграничение времени учебы и времени игры, а также ограничьте количество времени, которое дети тратят на развлечения; ограничьте действия, которые не разрешены во время учебы... - Содержание приложений: управление и контроль содержания программного обеспечения ИИ, используемого детьми; понимание того, что дети изучают, играют и исследуют; четкое определение того, что дети могут делать, а что нет. - Личная информация детей: строго контролировать личную информацию детей; установить для детей принцип никогда не разглашать публично личную информацию, такую как полное имя, школа, адрес, номер дома, номер телефона и т. д.; объяснить детям, что эта информация может быть собрана и использована другими в неблаговидных целях. - Устанавливайте наказания за несоблюдение правил. Обсудите это с ребёнком, прежде чем требовать от него соблюдения. В то же время родителям следует сохранять твёрдую и последовательную позицию в перерывах между наказаниями, чтобы сформировать у ребёнка привычку. - Научите детей отказываться от приглашений друзей. |
(*) Департамент кибербезопасности и предотвращения высокотехнологичных преступлений Министерства общественной безопасности.
Источник
Комментарий (0)