12 września 2024 roku Oprah Winfrey wyemitowała specjalny program telewizyjny zatytułowany AI and the Future of Us . Przeanalizowano możliwe zalety i wady. Należy uważnie monitorować jej ewolucję i zachęcać naszych prawodawców, aby zrobili wszystko, co w ich mocy, aby uchronić nas przed negatywnymi skutkami sztucznej inteligencji. Jest to najszybciej rozwijająca się technologia, która pozostawia niewiele czasu na analizę.
Sztuczna inteligencja (AI) może zrewolucjonizować wiele dziedzin, od edukacji, przez opiekę zdrowotną, po sztukę. Jednak jego skuteczność zależy od sposobu użycia i nadal wymaga uważnego nadzoru człowieka, aby uniknąć poważnych błędów. Ponieważ sztuczna inteligencja jest coraz bardziej zintegrowana z naszym codziennym życiem, istotne jest zrozumienie jej ograniczeń, szczególnie jeśli chodzi o generowanie informacji i obrazów. W tym artykule zbadano znaczenie prawidłowego wykorzystania sztucznej inteligencji, aby zapewnić osiągnięcie zamierzonych celów, koncentrując się na potrzebie zaangażowania człowieka w weryfikację danych, ryzyku związanym ze obrazami generowanymi przez sztuczną inteligencję oraz potrzebie jasnej polityki dotyczącej wykorzystania sztucznej inteligencji. sztuczna inteligencja. wykorzystanie sztucznej inteligencji w edukacji.
Potrzeba nadzoru człowieka
Systemy sztucznej inteligencji, szczególnie te oparte na uczeniu maszynowym, to potężne narzędzia, ale nie nieomylne. Systemy te uczą się na podstawie dużych zbiorów danych, a ich wyniki są tak wiarygodne, jak dane, na których są trenowane . Nieodłączne błędy w danych szkoleniowych mogą prowadzić do stronniczych lub nieuczciwych wyników. Na przykład, jeśli model sztucznej inteligencji zostanie przeszkolony na podstawie danych odzwierciedlających uprzedzenia społeczne, może utrwalić te uprzedzenia w swoich decyzjach, prowadząc do niesprawiedliwego traktowania niektórych grup.
Jedną z najpilniejszych obaw związanych ze sztuczną inteligencją jest jej tendencja do wytwarzania tzw. „halucynacji”, czyli przypadków, w których sztuczna inteligencja generuje informacje, które wydają się wiarygodne, ale są całkowicie fałszywe lub wprowadzające w błąd. Modele sztucznej inteligencji mają na celu przewidywanie najbardziej prawdopodobnego wyniku na podstawie danych szkoleniowych, ale z natury nie rozumieją kontekstu, niuansów ani dokładności faktów. Jest to szczególnie istotne w kontekście edukacyjnym, gdzie dokładność jest najważniejsza. Na przykład w kontekście edukacyjnym sztuczna inteligencja może wygenerować pozornie dokładną, ale całkowicie fikcyjną datę historyczną lub fakt naukowy.
Bez nadzoru człowieka te nieścisłości mogą szerzyć dezinformację, wprowadzać w błąd uczniów, nauczycieli, a nawet administratorów, co może prowadzić do szkodliwych decyzji. Dlatego weryfikacja danych pozostaje kluczowym obowiązkiem człowieka podczas korzystania z narzędzi AI. Administratorzy, nauczyciele, studenci, a nawet twórcy treści powinni weryfikować informacje generowane przez sztuczną inteligencję w zaufanych źródłach, aby zapewnić dokładność i zapobiec rozprzestrzenianiu się fałszywych informacji.
Zagrożenia związane z obrazami generowanymi przez sztuczną inteligencję
Zdolność sztucznej inteligencji do tworzenia obrazów na podstawie opisów tekstowych jest imponująca, a takie obrazy mogą być niewiarygodnie realistyczne (jak widać powyżej), ale stwarzają również znaczne ryzyko, szczególnie jeśli są używane nieprawidłowo. Obrazy generowane przez sztuczną inteligencję mogą łatwo zatrzeć granice między rzeczywistością a fikcją, utrudniając odróżnienie prawdziwych zdjęć od dzieł sztucznej inteligencji, a sztuczna inteligencja, jeśli zostanie niewłaściwie wykorzystana, może tworzyć obrazy zniekształcające rzeczywistość lub utrwalające szkodliwe stereotypy. Na przykład sztuczną inteligencję wykorzystuje się do tworzenia głębokich podróbek: hiperrealistycznych, ale całkowicie sfabrykowanych obrazów lub filmów, które można wykorzystać do manipulowania odbiorem publicznym, rozpowszechniania dezinformacji, a nawet szantażowania ludzi.
W kontekście edukacji lub mediów obrazów generowanych przez sztuczną inteligencję należy używać ostrożnie. Niewłaściwe wykorzystanie obrazów generowanych przez sztuczną inteligencję może podważyć wiarygodność materiałów edukacyjnych i prowadzić do rozpowszechniania dezinformacji. Na przykład obraz wydarzenia historycznego utworzony przez sztuczną inteligencję może przypadkowo (lub celowo) zmienić wygląd wydarzenia, co może skutkować błędnym przedstawieniem historii. Obrazy generowane przez sztuczną inteligencję wykorzystywane na lekcjach historii lub ilustracjach naukowych muszą być dokładne i zgodne z prawdą. W przeciwnym razie istnieje ryzyko podważenia zrozumienia przez uczniów kluczowych pojęć. Podobnie obrazy generowane przez sztuczną inteligencję wykorzystywane w reklamach lub mediach społecznościowych mogą przyczyniać się do tworzenia nierealistycznych standardów piękna lub fałszywych interpretacji kulturowych.
Aby ograniczyć to ryzyko, konieczne jest ustanowienie wytycznych i standardów etycznych dotyczących wykorzystania sztucznej inteligencji w generowaniu obrazu. Obejmuje to wyraźne oznaczanie obrazów wygenerowanych przez sztuczną inteligencję, upewnianie się, że nie wprowadzają w błąd ani nie wprowadzają w błąd, a także wykorzystywanie ich w sposób respektujący godność i prywatność ludzi.
Opracowanie polityki wykorzystania sztucznej inteligencji w edukacji
Biorąc pod uwagę potencjalne korzyści i ryzyko związane ze sztuczną inteligencją, istotne jest opracowanie i wdrożenie kompleksowej polityki dotyczącej jej wykorzystania w placówkach edukacyjnych. Poniżej przedstawiono kluczowe elementy tej polityki:
Plagiat i naruszenie praw autorskich:
Nauczyciele i uczniowie powinni dopilnować, aby treści generowane przez sztuczną inteligencję nie naruszały istniejących praw autorskich. Narzędzia sztucznej inteligencji powinny być wykorzystywane w celu ułatwienia uczenia się i nauczania, a nie w celu plagiatu lub powtarzania cudzej pracy bez odpowiedniego przypisania.
Instytucje powinny korzystać z narzędzi do wykrywania plagiatów, które mogą analizować treści generowane przez sztuczną inteligencję, aby zapewnić oryginalność i zgodność ze standardami akademickimi.
Etyczne wykorzystanie i łagodzenie uprzedzeń:
Dokładność i sprawdzanie faktów:
Przejrzystość i odpowiedzialność:
Responsywne tworzenie obrazu AI:
Przykład polityki AI
Wniosek
Sztuczna inteligencja może radykalnie ulepszyć edukację, zapewniając spersonalizowane doświadczenia edukacyjne, automatyzując rutynowe zadania i oferując nowe sposoby angażowania uczniów. Jednak jego skuteczność zależy od odpowiedzialnego stosowania, uważnego nadzoru i przestrzegania standardów etycznych. Wdrażając kompleksowe zasady i zapewniając, że treści generowane przez sztuczną inteligencję są dokładne, uczciwe i przejrzyste, nauczyciele mogą wykorzystać moc sztucznej inteligencji, aby wzbogacić naukę i zminimalizować potencjalne ryzyko.
Zasoby:
Dla lepszego zrozumienia i wdrożenia odpowiedzialnego wykorzystania sztucznej inteligencji w edukacji cenne są następujące zasoby:
OpenAI rozwija użyteczną sztuczną inteligencję w sposób bezpieczny i odpowiedzialny
Dowiedz się więcej o wytycznych OpenAI dotyczących odpowiedzialnego rozwoju i wdrażania sztucznej inteligencji.
Wytyczne etyczne UNESCO dotyczące sztucznej inteligencji
Kompleksowe wytyczne dotyczące etycznego wykorzystania sztucznej inteligencji w edukacji i innych sektorach.
Błąd w sztucznej inteligencji: zrozumienie i łagodzenie
Dogłębna analiza błędów w systemach sztucznej inteligencji i strategii ich łagodzenia.
Narzędzia i zasoby do weryfikacji danych
Narzędzia pomagające weryfikować dokładność treści generowanych przez sztuczną inteligencję.
RANDO | Narzędzia do walki z dezinformacją w Internecie
Duke Videofactchecking Tool to rozszerzenie przeglądarki umożliwiające sprawdzanie informacji telewizyjnych na żywo. Twórcy ocenili to poprzez eksperymenty z użytkownikami. Ogólnie użytkownikom podobało się to, że narzędzie to generowało wyskakujące okienka, choć nie zgadzali się co do tego, czy woleli otrzymywać „ocenę”, czy tylko określone informacje.
Factcheck.org to witryna służąca do sprawdzania faktów, stowarzyszona z Centrum Polityki Publicznej w Annenburgu Uniwersytetu Pensylwanii. Celem witryny jest „monitorowanie dokładności faktów” w amerykańskiej polityce. Koncentruje się na wypowiedziach amerykańskich polityków. W grupie pracuje kilku dziennikarzy badających ten materiał.
HackerFactor to internetowe narzędzie do weryfikacji, które dostarcza informacji o źródle, sygnaturze czasowej, utworzeniu i modyfikacji obrazów.
Nagrodzona nagrodą Pulitzera witryna internetowa prowadzona przez redaktorów i reporterów Tampa Bay Times (FL). „PolitiFact to witryna weryfikująca fakty, która ocenia prawdziwość twierdzeń składanych przez wybieranych urzędników i inne osoby związane z amerykańską polityką. […] Strony stanowe PolitiFact są obsługiwane przez organizacje informacyjne współpracujące z The Times”. Przeczytaj ich zasady w książce Kim jesteśmy.
Narzędzia do wykrywania plagiatów
Rozwiązania gwarantujące oryginalność prac naukowych.
Informacje i wytyczne dotyczące praw autorskich
Zapoznaj się z podstawami praw autorskich, aby uniknąć naruszeń.
Zasoby sztucznej inteligencji w edukacji
Najlepsze praktyki i badania dotyczące integracji sztucznej inteligencji ze środowiskami edukacyjnymi.
Etyka generowania obrazu AI
Wytyczne dotyczące odpowiedzialnego tworzenia i wykorzystywania obrazów generowanych przez sztuczną inteligencję.
Polityki edukacyjne w zakresie wykorzystania sztucznej inteligencji
Ramy opracowywania polityk instytucjonalnych dotyczących sztucznej inteligencji w edukacji.
Krytyczne myślenie w dobie sztucznej inteligencji
Zasoby pomagające nauczycielom rozwijać umiejętność krytycznego myślenia u uczniów.
Biblioteka artykułów Edutopia AI
Obszerna lista artykułów na temat sztucznej inteligencji i edukacji