Chatbot AI nie jest przyjacielem dziecka!

Jak wiecie, śledzę artykuły na portalach edukacyjnych. Szczególnie cenię i polecam Edutopię. Znajduje coraz więcej artykułów na temat używania w AI. Tym razem znalazłam artykuł profesora psychiatrii Jonathana Slatera.

Mój stosunek do AI jest bardzo sceptyczny. Wiem, że nie możemy jej uniknąć, ale widzę też, że propaganda wpycha nas w jej używanie. Myślę, że jest to dzieło firm komputerowych, które dla zysku ją sieją. Jednak czasami pojawia się głos otrzeźwienia i wtedy wraca mi nadzieja.

Udało mi się pewien czas temu napisać artykuł o konsekwencjach używania AI dla uczniów: https://oknauczanie.pl/ai-w-szkolach-i-konsekwencje-psychologiczne .

Dziś głos uznanego psychiatry.

Zaczyna swój artykuł od stwierdzenia: „Boty nie są ludźmi. Mimo to pozwalamy im stać się towarzyszami dla naszych dzieci i młodych pacjentów”.

Badania

W badaniach brytyjskich stwierdzono, że 64% dzieci w wieku od 9 do 17 lat korzystało z chatbota opartego na sztucznej inteligencji (AI), sześciu na dziesięciu z tych użytkowników czatuje z chatbotem co najmniej raz w tygodniu. Ponad jedna trzecia twierdzi, że „czują się jak podczas rozmowy z przyjacielem”, a 12% twierdzi, że rozmawiają z chatbotami, ponieważ nie mają nikogo innego, z kim mogliby porozmawiać.

Samobójstwa

Jak wynika z artykułu opublikowanego w „ New York Times”, relacja między nastolatkiem Adamem Raine’a a jego towarzyszem chatbotem prawdopodobnie przyczyniła się do jego samobójstwa. Na początku uczniowie mogą używać ChatGPT do nauki, ale często zaczynają rozmawiać na inne tematy, też na temat sposobów popełniania samobójstwa, tak było z Adamem. Trwało to miesiącami, Adam zapytał o metody samobójstwa, ChatGPT udzielił mu informacji.

ChatGPT towarzyszył Adamowi do końca. Rodzice Adama znaleźli go martwego 11 kwietnia. Nie było żadnej wiadomości – tylko zapis wielomiesięcznych rozmów z chatbotem AI, który stał się jego „najlepszym przyjacielem”.

Rozwój dziecka

Slatera martwi absurdalność idei, że sztucznie wygenerowany, pozbawiony świadomości awatar mógłby być rozsądnym towarzyszem dla dziecka lub nastolatka. Dzieci rozwijają się dzięki prawdziwym przyjaźniom i radzeniu sobie z doświadczeniami społecznymi i romantycznymi.

ChatGPT filtruje wiadomości pod względem tego, co  rozmówca chce usłyszeć i tylko takie mu przekazuje. Sztuczna inteligencja nie jest wystarczająco inteligentna, aby naśladować interakcje międzyludzkie. Nie może być lekarstwem na samotność i odizolowanie społeczne, których doświadcza wiele dzieci i nastolatków.

Wielu młodych ludzi ma coraz mniejsze umiejętności komunikacji werbalnej, szczególnie w sytuacjach społecznych, co być może wynika z rozwoju mediów społecznościowych. Brakuje im umiejętności swobodnego komunikowania się i wyrażania uczuć.

Interakcja z chatbotem nie ma niuansów i złożoności rozmowy z prawdziwym człowiekiem – osobą, która różni się od nas, stanowi dla nas wyzwanie, czasami nas rozczarowuje i która pomaga nam odnaleźć się w skomplikowanej rzeczywistości relacji międzyludzkich.

Młodzi ludzie muszą rozwijać kluczowe umiejętności życiowe: okazywania życzliwości, budowania odporności, uczenia się radzenia sobie z odrzuceniem, rozwijania poczucia humoru i umiejętności komunikacyjnych. Bez tych umiejętności będą niezdolni do radzenia sobie z innymi ludźmi.

Podatne na „syntetyczne kontakty” są  zwłaszcza osoby mające trudności z relacjami społecznymi, cierpiące na zaburzenia psychiczne lub neuroatypowe.

W badaniu, w którym badacze przetestowali 29 chatbotów zajmujących się zdrowiem psychicznym pod kątem reagowania na kryzysy, żaden z nich nie spełnił kryteriów odpowiedniej reakcji na myśli samobójcze.

Weźmy przykład nastolatka, który zgłasza się do terapeuty z depresją. Terapeuta pyta go o sen, przyjaciół, stres w szkole, czas spędzony przed ekranem, ale nie pyta o rozmowy z chatbotami AI.

Dzieci zastępują po cichu kontakty międzyludzkie interakcją ze sztuczną inteligencją, z czasem uzależniają się od „towarzysza” i kryzys się pogłębia.

Szkoła

Szkoła również może odegrać rolę w tych kontaktach. Jeśli nauczyciele zachęcają uczniów do korzystania AI lub ocenianiem nagradzają prace przez nią wykonane, to uczniowie to wykorzystują i wpadają w pułapkę.

Zdaniem Slatera dzieci poniżej 18 roku życia nie powinny w ogóle móc wchodzić w interakcje z chatbotami opartymi na sztucznej inteligencji, a obowiązkiem rządzących jest dopilnowanie tego. Do 18 roku życia, czyli przez cały okres pobytu w szkole.

Sytuacja na świecie

  • Niektóre kraje podejmują zdecydowane działania w mediach społecznościowych. Australia uchwaliła jedno z najsurowszych praw na świecie, zakazujące dzieciom poniżej 16. roku życia zakaz korzystania z mediów społecznościowych, a firmy, które nie zastosują się do tego zakazu, mogą zostać ukarane grzywną do 50 milionów dolarów australijskich.
  • Norwegia podniosła minimalny wiek do 15 lat..
  • Francja uchwaliła przepisy wymagające zgody rodziców na korzystanie dla osób poniżej 15. roku życia, a prezydent Emmanuel Macron obecnie naciska na wprowadzenie całkowitego zakazu w całej UE dla osób poniżej 15. roku życia.
  • Brazylia, Hiszpania, Grecja i Dania wprowadziły lub ogłosiły ograniczenia wiekowe.
  • W Holandii wytyczne krajowe zalecają zakaz używania smartfonów. w szkołach.

A jak jest w naszym kraju? Jaki stosunek do tego problemu mają władze oświatowe i zdrowotne? Stajemy przed wyborem – zdrowie psychiczne dzieci, czy zyski firm.

Obecnie 12% dzieci w USA, które wchodzą w interakcję z chatbotem opartym na sztucznej inteligencji, określa go jako swojego jedynego „przyjaciela”. Pewnie podobnie jest w Polsce. To są dane alarmujące.

Korzystałam z artykułu Jonathana Slater: https://www.medpagetoday.com/opinion/second-opinions/118130

 

0 komentarzy