На 12 септември 2024 година, Опра Винфри емитуваше телевизиска специјална програма со наслов AI и иднината на нас . Беа анализирани можните предности и недостатоци. Неопходно е внимателно да се следи неговата еволуција и да се охрабрат нашите законодавци да направат се што е можно за да не заштитат од негативните влијанија на вештачката интелигенција. Тоа е најбрзо растечката технологија која остава малку време за анализа.
Вештачката интелигенција (ВИ) има потенцијал да револуционизира различни области, од образование до здравство до уметност. Сепак, неговата ефикасност зависи од тоа како се користи и сепак бара внимателен човечки надзор за да се избегнат сериозни грешки. Бидејќи вештачката интелигенција се повеќе се интегрира во нашиот секојдневен живот, од суштинско значење е да се разберат нејзините ограничувања, особено кога станува збор за генерирање информации и слики. Оваа статија ја истражува важноста од правилно користење на вештачката интелигенција за да се осигура дека ќе ги постигне зацртаните цели, фокусирајќи се на потребата за човечко вклучување во верификацијата на податоците, ризиците поврзани со сликите генерирани од вештачка интелигенција и потребата од јасна политика за употреба на вештачка интелигенција. употреба на вештачка интелигенција во образованието.
Потребата од човечки надзор
Системите за вештачка интелигенција, особено оние базирани на машинско учење, се моќни алатки, но не и непогрешливи. Овие системи учат од големи збирки на податоци и нивните резултати се веродостојни само како и податоците за кои се обучени . Вродените предрасуди во податоците за обуката може да доведат до пристрасни или нефер резултати. На пример, ако моделот на вештачка интелигенција е обучен со податоци што ги рефлектираат социјалните предрасуди, тој може да ги овековечи тие предрасуди во неговите одлуки, што ќе доведе до нефер третман на одредени групи.
Една од најитните грижи за вештачката интелигенција е нејзината тенденција да произведува она што е познато како „халуцинации“, случаи во кои вештачката интелигенција генерира информации што изгледаат веродостојни, но се целосно лажни или погрешни. Моделите со вештачка интелигенција се дизајнирани да го предвидат најверојатниот исход врз основа на податоците за обуката, но инхерентно не разбираат контекст, нијанси или фактичка точност. Ова е особено загрижувачко во образовните контексти, каде што прецизноста е најважна. На пример, во образовен контекст, вештачката интелигенција може да генерира навидум точен, но целосно измислен историски датум или научен факт.
Без човечки надзор, овие неточности може да шират дезинформации, да ги доведат во заблуда учениците, наставниците, па дури и администраторите, што може да доведе до штетни одлуки. Затоа, верификацијата на податоците останува клучна човечка одговорност при користење на алатки за вештачка интелигенција. Администраторите, едукаторите, студентите, па дури и креаторите на содржини треба да ги проверат информациите произведени од вештачка интелигенција со доверливи извори за да обезбедат точност и да спречат ширење на лажни информации.
Ризиците од сликите генерирани од вештачката интелигенција
Способноста на вештачката интелигенција да создава слики од текстуални описи е импресивна, а таквите слики можат да бидат неверојатно реални (како што е видено погоре), но тие исто така претставуваат значителен ризик, особено ако се користат неправилно. Сликите генерирани со вештачка интелигенција лесно можат да ги заматат границите помеѓу реалноста и фикцијата, што го отежнува разликувањето на вистинските фотографии од креациите со вештачка интелигенција, а ако се користат несоодветно, вештачката интелигенција може да создаде слики што ја искривуваат реалноста или ги овековечуваат штетните стереотипи. На пример, вештачката интелигенција се користи за создавање длабоки фејкови: хиперреалистични, но целосно измислени слики или видеа кои можат да се користат за манипулирање со јавната перцепција, ширење дезинформации или дури и уцена на луѓето.
Во контекст на образованието или медиумите, сликите генерирани со вештачка интелигенција треба да се користат со претпазливост. Несоодветната употреба на слики генерирани со вештачка интелигенција може да го поткопа кредибилитетот на едукативните материјали и да доведе до ширење на дезинформации. На пример, слика на историски настан создадена со вештачка интелигенција може ненамерно (или намерно) да го промени изгледот на настанот, што резултира со погрешно претставување на историјата. Сликите генерирани со вештачка интелигенција што се користат на часовите по историја или научните илустрации мора да бидат точни и вистинити. Во спротивно тие ризикуваат да го нарушат разбирањето на клучните концепти на учениците. Слично на тоа, сликите генерирани со вештачка интелигенција што се користат во рекламирањето или социјалните медиуми може да придонесат за нереални стандарди за убавина или културни погрешни претстави.
За да се ублажат овие ризици, од суштинско значење е да се воспостават етички упатства и стандарди за употреба на вештачка интелигенција при генерирање слики. Ова вклучува јасно означување на сликите генерирани со вештачка интелигенција, обезбедување дека тие не се погрешни или дезинформирани и нивно користење на начин кој го почитува достоинството и приватноста на луѓето.
Развивање на политика за употреба на вештачка интелигенција во образованието
Со оглед на потенцијалните придобивки и ризици поврзани со вештачката интелигенција, од суштинско значење е да се развие и спроведе сеопфатна политика за нејзина употреба во образовните услови. Следниве се клучните елементи на оваа политика:
Плагијат и прекршување на авторските права:
Едукаторите и студентите треба да се погрижат содржината генерирана од вештачка интелигенција да не ги нарушува постоечките авторски права. Алатките за вештачка интелигенција треба да се користат за олеснување на учењето и наставата, а не за плагијат или повторување на туѓа работа без соодветна атрибуција.
Институциите треба да користат алатки за откривање на плагијати кои можат да ја анализираат содржината генерирана од вештачка интелигенција за да обезбедат оригиналност и усогласеност со академските стандарди.
Етичка употреба и ублажување на пристрасноста:
Точност и проверка на факти:
Транспарентност и одговорност:
Одговорно креирање слики со вештачка интелигенција:
Пример за политика на вештачка интелигенција
Заклучок
ВИ има потенцијал драматично да го подобри образованието преку обезбедување персонализирани искуства за учење, автоматизирање на рутинските задачи и нудење нови начини за ангажирање на учениците. Сепак, неговата ефикасност зависи од одговорна употреба, внимателен надзор и усогласеност со етичките стандарди. Со спроведување на сеопфатни политики и обезбедување дека содржината генерирана од вештачка интелигенција е точна, правична и транспарентна, наставниците можат да ја искористат моќта на вештачката интелигенција за да го збогатат искуството за учење и да ги минимизираат потенцијалните ризици.
Ресурси:
За подобро разбирање и спроведување на одговорното користење на вештачката интелигенција во образованието, вредни се следните ресурси:
OpenAI развива корисна вештачка интелигенција безбедно и одговорно
Дознајте повеќе за упатствата на OpenAI за одговорен развој и распоредување на вештачката интелигенција.
УНЕСКО Етички упатства за вештачка интелигенција
Сеопфатни упатства за етичка употреба на ВИ во образованието и другите сектори.
Пристрасност во вештачката интелигенција: Разбирање и ублажување
Длабоко истражување на предрасудите во системите за вештачка интелигенција и стратегии за нивно ублажување.
Алатки и ресурси за проверка на податоците
Алатки кои ќе помогнат да се потврди точноста на содржината генерирана од вештачка интелигенција.
РАНДО | Алатки кои се борат против дезинформациите на интернет
Видео алатка за проверка на факти на Duke
Duke Videofactchecking Tool е екстензија на прелистувачот што ви овозможува да ги проверувате информациите за ТВ во живо. Програмерите го оценија преку кориснички експерименти. Генерално, на корисниците им се допадна фактот што оваа алатка генерира скокачки прозорци, иако тие не се согласуваат околу тоа дали претпочитаат да добијат „рејтинг“ или само конкретни информации.
Factcheck.org е веб-страница поврзана со Центарот за јавна политика во Аненбург на Универзитетот во Пенсилванија, која врши проверка на факти. Целта на страницата е да се „следи фактичката точност“ во американската политика. Се фокусира на изјавите на американските политичари. Групата има неколку новинари кои го истражуваат материјалот.
HackerFactor е веб-базирана алатка за верификација која обезбедува информации за изворот, временскиот печат, создавањето и модификацијата на сликите.
Веб-страница наградена со Пулицерова награда управувана од уредници и репортери на Тампа Беј Тајмс (Флорида). „ПолитиФакт е веб-страница за проверка на факти која ја проценува точноста на тврдењата на избраните функционери и други во американската политика... Државните страници на ПолитиФакт се управувани од новински организации кои соработуваат со Тајмс“. Прочитајте ги нивните принципи во „Кои сме ние“.
Алатки за откривање на плагијати
Решенија за гарантирање на оригиналноста на академските дела.
Информации и упатства за авторски права
Разберете ги основите на законите за авторски права за да избегнете прекршување.
Ресурсите на вештачката интелигенција во образованието
Најдобри практики и истражувања за интегрирање на вештачката интелигенција во образовните средини.
Етика на генерирање слики со вештачка интелигенција
Насоки за одговорно создавање и употреба на слики генерирани со вештачка интелигенција.
Образовни политики за употреба на ВИ
Рамки за развој на институционални политики за вештачка интелигенција во образованието.
Критичко размислување во ерата на вештачката интелигенција
Ресурси кои ќе им помогнат на едукаторите да ги поттикнат вештините за критичко размислување кај учениците.
Библиотека на написи Едутопија AI
Сеопфатна листа на написи за вештачка интелигенција и образование