Jednak takie systemy nie zapewniają takich samych możliwości monetyzacji i kredytu, jak historycznie wyszukiwarki. Modele AI czerpią z wielu danych w Internecie w celu wygenerowania ich wyników, ale te źródła danych często nie są przypisywane, ograniczając zdolność twórców do zarabiania pieniędzy na ich pracy. Wyszukiwarki zawierające odpowiedzi generowane przez AI mogą zawierać linki do oryginalnych źródeł, ale mogą również zmniejszyć zainteresowanie ludzi kliknięciem na inne witryny, a nawet mogą wprowadzić przyszłość „zerowego kliknięcia”.
„Tradycyjnie niewypowiedziana umowa polegała na tym, że wyszukiwarka może indeksować twoją treść, a następnie wyświetli odpowiednie linki do konkretnego zapytania i wysyłać ruch z powrotem do Twojej witryny”, Will Allen, szef prywatności, kontroli i produktów medialnych Cloudflare, napisał w e -mailu do e -maila na adres e -mail Przegląd technologii MIT. „To zasadniczo się zmienia”.
Ogólnie rzecz biorąc, twórcy i wydawcy chcą zdecydować, w jaki sposób ich treść jest używana, jak są z nimi powiązane i jak otrzymują za to wynagrodzenie. Cloudflare twierdzi, że jego klienci mogą teraz pozwolić lub odrzucić czołganie się na każdy etap cyklu życia AI (w szczególności trening, dopracowywanie i wnioskowanie) i zweryfikowane okalekce specyficzne dla białej listy. Klienci mogą również ustalić stawkę za to, ile będzie kosztować boty AI, aby indeksować ich witrynę.
W komunikacie prasowym Cloudflare firmy medialne, takie jak Associated Press i Time and Forums, takie jak Quora i Stack Overflow, wyrażały obsługę przeprowadzki. „Platformy społeczne, które Fuel LLMS powinny zostać zrekompensowane za ich wkład, aby mogli zainwestować w swoje społeczności”, powiedział w komunikacie dyrektor generalny Stack Overflow, Prashanth Chandrasekar.
Frawlery powinni przestrzegać wskazówek danej strony (dostarczonej przez plik robots.txt), aby ustalić, czy mogą się tam pełnić, ale niektóre firmy AI zostały oskarżone o zignorowanie tych instrukcji.
Cloudflare ma już system weryfikacji bota, w którym crawlery internetowe AI mogą powiedzieć stronom, dla kogo pracują i co chcą robić. W tym celu Cloudflare ma nadzieję, że jego system może ułatwić negocjacje w dobrej wierze między firmami AI i właścicielami witryn. W przypadku mniej uczciwych robotników Cloudflare planuje wykorzystać swoje doświadczenie w radzeniu sobie z skoordynowanymi atakami odmowy serwisu od botów, aby je zatrzymać.
„Hałownik internetowy, który przechodzi przez Internet w poszukiwaniu najnowszych treści, to po prostu kolejny rodzaj bota – więc cała nasza praca nad zrozumieniem ruchu i wzorców sieci dla wyraźnie złośliwych botów pomaga nam zrozumieć, co robi Crawler”, napisał Allen.
Cloudflare opracował już inne sposoby powstrzymywania niechcianych robotników, takich jak umożliwienie stron internetowych wysyłania ich ścieżką fałszywych stron internetowych generowanych przez AI, aby zmarnować ich wysiłki. Chociaż takie podejście będzie nadal obowiązywać naprawdę złych aktorów, firma twierdzi, że ma nadzieję, że nowe usługi mogą wspierać lepsze relacje między firmami AI a producentami treści.
