W czasach, gdy stało się to Trudno odróżnić prawdziwe zdjęcie od tego stworzonego przez sztuczną inteligencję.Google postanowiło pójść o krok dalej ze swoim asystentem Gemini. Aplikacja zawiera teraz funkcję, która pozwala sprawdzić, czy zdjęcie zostało przetworzone przez modele sztucznej inteligencji firmy. Jest to szczególnie istotne dla użytkowników w Hiszpanii i Europie, którzy chcą wiedzieć, co kryje się za zdjęciami, które otrzymują za pośrednictwem mediów społecznościowych, komunikatorów lub poczty e-mail.
Ta nowa funkcja oznacza, że dzięki Prześlij obraz do aplikacji Gemini i zadaj proste pytanie Na przykład, jeśli zadajesz pytania takie jak „Czy zostało stworzone za pomocą sztucznej inteligencji Google?” lub „Czy zostało wygenerowane przez sztuczną inteligencję?”, asystent analizuje zdjęcie i odpowiada, czy zostało wygenerowane, czy edytowane za pomocą systemów Google. Co więcej, nie udziela jedynie odpowiedzi „tak” lub „nie”: uzupełnia odpowiedź dodatkowym kontekstem dotyczącym treści, pomagając lepiej ocenić jej pochodzenie.
Jak Gemini weryfikuje, czy obraz został utworzony za pomocą sztucznej inteligencji Google

Sercem tego systemu jest SynthID, technologia niewidocznego znaku wodnego, którą Google wprowadziło dwa lata temuTo narzędzie wstawia sygnał cyfrowy bezpośrednio do pikseli obrazów generowanych lub retuszowanych za pomocą modeli AI, bez żadnych widocznych zmian. Znak wodny pozostaje nawet po przycięciu, skompresowaniu lub zastosowaniu filtrów, co jest częste w przypadku udostępniania za pośrednictwem komunikatorów lub mediów społecznościowych.
Gdy użytkownik przesyła zdjęcie do aplikacji i zadaje pytanie, Gemini bada obraz w poszukiwaniu znaku wodnego SynthIDJeśli znajdzie markę, wskazuje, że zdjęcie „zostało stworzone lub edytowane przez sztuczną inteligencję Google” i dodaje informacje uzupełniające, takie jak kontekst dotyczący rodzaju treści i miejsca, w którym podobne treści zostały znalezione w sieci. Jeśli nie wykryje marki, wyjaśnia, że zdjęcie prawdopodobnie nie zostało wygenerowane przy użyciu modeli Google, choć pozostawia otwartą możliwość, że pochodzi ono z innych narzędzi sztucznej inteligencji.
Ten rodzaj weryfikacji jest szczególnie przydatny w codzienne sytuacje, w których odbierane są bardzo realistyczne obrazyOd rzekomo aktualnych zdjęć udostępnianych w grupach WhatsApp po reklamy i kreatywne treści w mediach społecznościowych – zamiast polegać wyłącznie na ludzkim oku, użytkownik może skorzystać z technicznego markera osadzonego w samym obrazie.
Google twierdzi, że SynthID został już zastosowany miliardy elementów treści wygenerowanych przez ich modele, w tym tych, które produkują systemy takie jak Nano Banana Pro (model generowania obrazu powiązany z Gemini), który daje pojęcie o zakresie, jaki ta weryfikacja może mieć w ekosystemie firmy.
Oprócz niewidocznego znaku wodnego Google utrzymuje również widoczna marka na wielu generowanych obrazach Użytkownicy darmowych planów i Google AI Pro mogą zauważyć w Gemini swego rodzaju „blask”, który działa jak wyraźne ostrzeżenie dla przeciętnego użytkownika. W środowiskach profesjonalnych ten widoczny znak można jednak dezaktywować, aby zapewnić czyste płótno, dlatego weryfikacja opiera się na SynthID i metadanych.
Krok po kroku: jak korzystać z weryfikacji obrazkowej w aplikacji Gemini

Proces jest tak zaprojektowany, że Może z niego korzystać każdy posiadacz telefonu komórkowego z systemem Android lub iOS, bez żadnych komplikacji technicznych.Nie musisz być ekspertem w zakresie edycji lub sztucznej inteligencji generatywnej; wystarczy, że wiesz wskazówki dotyczące pisania dobrych podpowiedzi To może pomóc, wystarczy wykonać kilka kroków w aplikacji Gemini.
Najpierw otwórz aplikację i dotknij przycisku „Dodaj plik”, który zazwyczaj pojawia się u dołu ekranu z ikoną „+”. Następnie możesz wybrać obraz z listy. galeria mobilna, folder plików lub usługi takie jak Dysk GooglePo przesłaniu zdjęcia użytkownik zadaje pytanie, na przykład „Czy to zdjęcie zostało stworzone lub edytowane przez sztuczną inteligencję?” lub „Czy zostało wygenerowane przez sztuczną inteligencję firmy Google?”, po czym wysyła zapytanie.
Po drugie, Gemini analizuje obraz, szuka sygnałów SynthID i Zwraca komunikat zawierający swoją ocenę.Jeśli wykryje markę, wyraźnie to zaznacza; jeśli nie, wyjaśnia, że nie została ona stworzona za pomocą sztucznej inteligencji Google lub że nie może tego ustalić z całkowitą pewnością. W niektórych przypadkach wskazuje również, że nie da się stwierdzić, czy użyto innego, zewnętrznego narzędzia opartego na sztucznej inteligencji.
Trzecim krokiem jest interpretacja odpowiedzi przy użyciu pewnych kryteriów. Brak logo SynthID nie oznacza automatycznie, że zdjęcie jest autentyczne. W klasycznym ujęciu (zrobione aparatem bez żadnej manipulacji) oznacza to po prostu, że sygnał Google nie został wykryty. Może to być prawdziwy obraz, wygenerowany przez inną sztuczną inteligencję lub treść tak mocno zmodyfikowana, że marka uległa znacznej degradacji.
Google przyznaje, że istnieją ograniczenia techniczne w skrajnych przypadkachBardzo proste obrazy, pliki mocno zdegradowane przez kolejne kompresje lub bardzo agresywna edycja mogą sprawić, że znak wodny będzie trudny do odczytania. Mimo to system został zaprojektowany tak, aby wytrzymywał typowe przycinanie, zmianę rozmiaru oraz regulację jasności i kolorów, z myślą o jego użyteczności w sieciach i komunikatorach w prawdziwym świecie.
SynthID, C2PA i cel lepszego śledzenia treści cyfrowych
Integracja SynthID z Gemini nie odbywa się w pojedynkę. Google również bierze w tym udział. C2PA, międzynarodowa koalicja na rzecz pochodzenia i autentyczności treści Do tej grupy należą firmy takie jak Adobe, OpenAI, Meta i Microsoft. Grupa ta stworzyła standard metadanych, który umożliwia uwzględnienie wiarygodnych informacji o pochodzeniu i historii edycji obrazu, dźwięku lub wideo.
W praktyce te Metadane C2PA działają jak rodzaj arkusza danych technicznych osadzonego w plikuWskazuje, które narzędzie zostało użyte do stworzenia treści, jakie modyfikacje zostały wprowadzone i kiedy. Google zaczyna uwzględniać ten typ danych uwierzytelniających w obrazach generowanych przez modelki, takie jak Nano Banana Pro, w aplikacji Gemini, a także w kreacjach tworzonych za pośrednictwem Vertex AI i Google Ads.
Połączenie SynthID i C2PA pozwala z jednej strony Oznacz obrazy wygenerowane przez sztuczną inteligencję Google Z drugiej strony, aby zapewnić kanał umożliwiający również weryfikację plików pochodzących z narzędzi firm trzecich, które korzystają z tego standardu. Firma zamierza stopniowo rozszerzać te metadane na większą liczbę produktów, w tym usługi powszechnie używane w Europie, takie jak YouTube, Zdjęcia Google i sama wyszukiwarka.
Dla dziennikarzy, weryfikatorów faktów i mediów cyfrowych w Hiszpanii i innych krajach europejskich dostęp do Kluczowe może okazać się zastosowanie standardowego mechanizmu określania pochodzenia treści. w relacjach z wrażliwych źródeł, od kampanii wyborczych po konflikty międzynarodowe. Obecnie stosowanie C2PA rośnie, ale jego przyjęcie nie jest jeszcze powszechne, dlatego pełna identyfikowalność pozostaje celem średnioterminowym.
Oprócz bezpośredniej integracji z aplikacją, Google testowało tę technologię na konkretnym portalu weryfikacyjnym, Detektor SynthIDNarzędzie to, pierwotnie przeznaczone dla dziennikarzy, badaczy i profesjonalistów z branży medialnej, podświetla części obrazu, które najczęściej są oznaczane flagą, i uzupełnia bardziej ogólne zastosowanie oferowane obecnie przez Gemini.
Plany na przyszłość: od obrazów po wideo, audio i wyszukiwanie
Google jasno dało do zrozumienia, że nie zamierza ograniczać weryfikacji do zdjęć statycznych. Ich plany obejmują rozszerzenie SynthID o formaty wideo i audio.Umożliwi to skuteczniejszą identyfikację treści generowanych przez sztuczną inteligencję na tych platformach. Jest to szczególnie istotne w obliczu rozprzestrzeniania się deepfake'ów głosowych i wideo, które już doprowadziły do incydentów dezinformacyjnych w kilku krajach europejskich.
Innym celem jest udostępnienie tych możliwości usługom o szerokim zasięgu, takim jak: Wyszukiwarka Google, wyszukiwarkaIdea polega na tym, że gdy użytkownik znajdzie obraz w sieci, może łatwo sprawdzić, czy jest to treść wygenerowana przez sztuczną inteligencję, a jeśli tak, to z jakiego modelu korzysta. Tego typu informacje kontekstowe są już stopniowo uwzględniane w niektórych wynikach wyszukiwania, ale konkretna integracja SynthID i C2PA jest nadal wdrażana.
Tymczasem Google kontynuuje integrując SynthID z innymi narzędziami w swoim ekosystemie, takich jak Magic Editor i Reimagine w telefonach Pixel, które umożliwiają edycję zdjęć z wykorzystaniem sztucznej inteligencji. W ten sposób wszelkie istotne zmiany wprowadzone przez te systemy są oznaczane do późniejszego wykrycia, dodając warstwę przezroczystości do funkcji, które w przeciwnym razie mogłyby tworzyć obrazy trudne do odróżnienia od tradycyjnej fotografii.
Firma przyznaje, że dopóki nie powstanie powszechnie przyjęty system brandingu na wszystkich platformach generowania wizerunku, weryfikacja będzie z konieczności częściowa. Firma podkreśla jednak, że podjąć ten krok w ramach własnego ekosystemu Jest to sposób promowania przyjmowania standardów i oferowania użytkownikom konkretnych narzędzi ułatwiających poruszanie się w coraz bardziej złożonym środowisku cyfrowym.
W przypadku Europy, gdzie instytucje UE pracują nad ramami regulacyjnymi dotyczącymi sztucznej inteligencji i dezinformacji, tego typu inicjatywa technologiczna może pasować praktyczne uzupełnienie wymogów prawnych, udostępniając obywatelom, mediom i administracji systemy weryfikacji dostępne z telefonów komórkowych.
Co weryfikacja Gemini może, a czego nie może zrobić dzisiaj
Chociaż wprowadzenie tej funkcji stanowi znaczący krok naprzód, Bliźnięta nie są magicznym narzędziem rozwiązującym wszystkie problemy z autentycznościąNa razie jego zaletą jest możliwość wskazania, czy obraz został utworzony lub edytowany przez sztuczną inteligencję Google'a za pomocą SynthID; poza tym asystent może jedynie dokonywać szacunków na podstawie analizy wizualnej.
W testach z obrazami generowanymi przez inne narzędzia, takie jak modele zewnętrzne, które nie korzystają z SynthID, Gemini czasami było w stanie intuicyjnie wywnioskować, że jest to treść syntetycznaBrakuje mu jednak poziomu pewności, jaki oferuje przy wykrywaniu niewidocznego znaku wodnego. Zaobserwowano również sytuacje, w których system interpretował zdjęcie jako stockowe, podczas gdy w rzeczywistości pochodziło ono od innej sztucznej inteligencji, co dowodzi, że analiza czysto wizualna nadal ma pewien margines błędu.
Bliźnięta mogą czasami wskazywać na przesłania takie jak: „Ten obraz nie został stworzony przy użyciu sztucznej inteligencji Google, ale nie da się ustalić, czy wygenerowano go za pomocą innych narzędzi AI”.Innymi słowy, asystent jest transparentny i świadomy swoich ograniczeń, gdy nie dysponuje sygnałami technicznymi pozwalającymi na potwierdzenie pochodzenia obrazu.
Dla przeciętnego użytkownika oznacza to, że funkcję weryfikacji należy rozumieć jako jeszcze jedno narzędzie w zestawie narzędziI nie jest to jedyne kryterium decydujące o tym, czy wierzyć zdjęciu, czy nie. Krytyczne podejście do kontekstu, źródła, z którego pochodzi zdjęcie, oraz sposobu jego wykorzystania jest nadal fundamentalne, zwłaszcza w kwestiach wrażliwych, takich jak polityka, zdrowie czy bezpieczeństwo.
Jednak możliwość szybkiego przesłania zdjęcia do aplikacji Gemini i otrzymania kontekstowej odpowiedzi w ciągu kilku sekund jest zaletą. Stanowi praktyczne źródło informacji aby wykryć przynajmniej obrazy powiązane z ekosystemem Google, co jest szczególnie przydatne w kampaniach reklamy cyfrowej, treściach sponsorowanych, wiadomościach wirusowych lub zasobach graficznych krążących w sieciach w Hiszpanii i reszcie Europy.
Wprowadzenie tej funkcji do aplikacji Gemini wpisuje się w wyraźny trend w sektorze technologicznym: duże firmy włączające systemy uwierzytelniania i pochodzenia bezpośrednio w Twoich produktach Aby ograniczyć wpływ dezinformacji i zmanipulowanych treści. W tym kontekście połączenie niewidocznych znaków wodnych, standardowych metadanych i wyjaśnień w języku naturalnym pochodzących od samego asystenta pozwala użytkownikom lepiej zrozumieć, co kryje się za każdym obrazem, który widzą na ekranie.