Jaki jest problem z mediami syntetycznymi?

03 kwietnia 2023

Jaki jest problem z mediami syntetycznymi?

W ostatnich latach giganci internetowi tacy jak Google, czy Microsoft dużo zainwestowali w sztuczną inteligencję i analizę użytecznych danych. Zakłada się, że do 2030 roku wpływ Al na światową gospodarkę będzie zdumiewający. Mowa tu nie tylko o wielkich korporacjach, ale i małych oraz średnich firmach. Technologia wykorzystywana jest do generowania mediów syntetycznych. W poniższym artykule dowiesz się, jakie szanse i zagrożenia niesie ona za sobą.

Media syntetyczne – definicja

Media syntetyczne znane są pod nazwą media generowane przez Al lub media spersonalizowane. Określenie odnosi się do wszystkich informacji, artykułów, grafik, obrazów, czy utworów wygenerowanych lub zmodyfikowanych przy użyciu algorytmów. Najczęściej są to algorytmy sztucznej inteligencji.

Bez wątpienia rok 2022 był przełomowym czasem dla sztucznej inteligencji. W ciągu ostatnich 365 dni zaczęto używać ChatGPT na szeroką skalę, a także coraz więcej grafik zostało zmodyfikowanych przy użyciu DALL-E 2 – specjalnego programu opartego na Al. Co więcej, algorytmy Al zyskały popularność, ponieważ tworzą coś nowego na bazie starszych wersji utworów. Przykładowo użytkownicy zachwycili się grafikami generowanymi przez Al z tego względu, że są one estetycznie wykonane i posiadają głębię, której nie mają fotografie stockowe. Ponadto sztuczna inteligencja w kilkadziesiąt sekund potrafi wygenerować nowy artykuł, tekst, czy szeroko pojęte treści marketingowe.

Do takiego obrotu sprawy przyczyniła się organizacja non-profit o nazwie OpenAl. Została założona przez Elona Muska, Sama Altmana, Reida Hoffmana, Jessicę Livingstone, Grega Brockmana, a także takie organizacje jak Amazon Web Services, Infosys i YC Research. Swoją cegiełkę dołożył także Microsoft, wspierając organizację finansowo w wysokości 1 miliarda złotych.

Syntetyczne media i problemy z nimi związane

W obliczu tak dużych zmian technologicznych Al wydaje się z jednej strony dobrym, a z drugiej niezbyt korzystnym rozwiązaniem. Obecnie prawo międzynarodowe nie zakłada użycia Al do generowania oryginalnych utworów, więc nie istnieją sprecyzowane zasady dotyczące praw autorskich. Ponadto sztuczna inteligencja może zostać użyta do tworzenia obraźliwych treści, które mają na celu spolaryzować społeczeństwo lub zniszczyć komuś reputację.

Należy mieć na uwadze, że syntetyczne media będą coraz częściej wykorzystywane w przestrzeni publicznej. Z ich pomocą średnie i mniejsze firmy mogą pracować 24/7, ponieważ na odpowiedzi związane ze sprzedawanymi produktami zaczną odpowiadać chatboty. Co więcej, eksperci przewidują, że Al zacznie pisać oprogramowania na podstawie przesłanych danych wejściowych, a zmodyfikowane grafiki staną się codziennością i zaczną królować na billboardach i plakatach. Każde z tych działań zajmie o wiele mniej czasu niż przeciętnemu pracownikowi i może być o wiele lepsze, ponieważ wykonane z komputerową precyzyjnością. Nie oznacza to jednak, że będzie perfekcyjne.

Przede wszystkim sztuczna inteligencja może manipulować społeczeństwem. To najczęściej wymieniane zagrożenie związane z Al. Coraz częściej politycy promują się w mediach społecznościowych i używają internetowych trolli do przekazania swoich racji młodszym użytkownikom Internetu. Obecnie aplikacje oparte na sztucznej inteligencji podsuwają internautom utwory, które już wcześniej oglądali. Ich tematyka jest perfekcyjnie dobrana przez algorytmy, ale nie przefiltrowana, co oznacza, że do użytkowników trafiają szkodliwe i niedokładne treści budzące wątpliwości oraz polaryzujące społeczeństwo.

Kolejnym bardzo dużym zagrożeniem jest brak wytycznych dotyczących praw autorskich. Wielu technologów, dziennikarzy i polityków przestrzega przed zagrożeniem ze strony sztucznej inteligencji, szczególnie ze względu na niezwykle popularne narzędzie ChatGPT. Coraz więcej użytkowników korzysta z tego komunikatora. Z jego pomocą studenci starają się unikać samodzielnego pisania prac zaliczeniowych, a uczniowie klas podstawowych sprawozdań. Takie działania zabijają kreatywność w młodych ludziach oraz zagrażają akademickiej rzetelności.

Nawiązując do ChatGPT, nie można zapomnieć o pojęciu kradzieży własności intelektualnej. Wielu przedsiębiorców może skorzystać z narzędzia, zadając mu podobne pytania. Jeśli komunikator wygeneruje podobne teksty, które zostaną opublikowane, kto wówczas odpowiada za plagiat? Z drugiej strony może dojść do sytuacji, gdy konkurencyjne ze sobą przedsiębiorstwa będą walczyć o wysokie miejsce w wyszukiwarce Google i zaczną kopiować od siebie język lub tematykę artykułów. Kto ponosi odpowiedzialność za duplikat, jeśli utwory będą wygenerowane przez ChatGPT? Algorytmy sztucznej inteligencji generują teksty, grafiki, czy muzykę opierając się na wcześniej znanych dziełach. Korzystają z nich, ale nie zostało to w żaden sposób unormowane prawnie.

Należy mieć świadomość, że sztuczna inteligencja ma mnóstwo zalet. W przyszłości może przyczynić się do pozytywnych zmian w społeczeństwie dotyczących ochrony środowiska, czy równego dostępu do opieki zdrowotnej. Z drugiej strony kwestie prawne z nią związane są wciąż nieznane. Obecnie nie zaleca się wykorzystywania syntetycznych mediów do prowadzenia biznesu. Warto czerpać z nich pomysły, jednak ich nie kopiować, ponieważ może to nieść w przyszłości duże konsekwencje prawne.

Marketing

Skontaktuj się z nami

Opowiemy Ci o konkretach, przedstawimy narzędzia, zaproponujemy rozwiązania, przygotujemy ofertę!

Kontakt