Cyfrowe zmartwychwstanie© Getty Images

Cyfrowe zmartwychwstanie

18 czerwca 2021

W XXI wieku do próby kontaktu ze zmarłymi zamiast magii i religii próbujemy używać technologii. Po raz pierwszy wygląda na to, że mamy szansę odnieść sukces.

Kiedy Marta żegna się rano z wychodzącym do pracy Ashem, nie wie jeszcze, że widzi go żywego po raz ostatni - tak zaczyna się "Zaraz wracam", jeden z odcinków brytyjskiego serialu science fiction "Black Mirror" ("Czarne lustro" – przyp. red.). Po śmierci ukochanego dziewczyna odkrywa, że jest w ciąży.

Samotność nie do zniesienia pcha Martę do skorzystania z tajemniczej usługi, która obiecuje możliwość rozmowy ze zmarłym przez komunikator internetowy. Korzystając z wiadomości, jakie wymieniała ze sobą młoda para, a także wpisów w serwisach społecznościowych - sumy zarejestrowanych przez lata w sieci poglądów, wypowiedzi, emocji i reakcji Asha - oferująca usługę firma tworzy wirtualną symulację osobowości chłopaka. Tak przekonującą, że Marta wkrótce decyduje się pójść krok dalej. Po udostępnieniu sztucznej inteligencji nagrań i materiałów wideo z Ashem, wirtualny konstrukt zyskuje głos. Rozdzieleni kochankowie zaczynają rozmawiać ze sobą także przez telefon.

Zwiastun odcinka "Zaraz wracam" serialu "Czarne lustro"

Charlie Brooker, twórca "Czarnego lustra" i scenarzysta odcinka "Zaraz wracam" wspomina, że pomysł wirtualnego życia przyszedł mu do głowy, kiedy, przeglądając serwisy społecznościowe zaczął się zastanawiać, czy dałoby się odróżnić posty napisane przez ludzi od tych, które stworzyłaby sztuczna inteligencja nauczona ich zwyczajów, zainteresowań i stylu wypowiedzi.

Dosłownie kilka lat później wizja Brookera zaczyna się spełniać. Nie wiadomo tylko, czy to dobrze, czy źle.

Nie pożegnany przyjaciel i "Skype ze zmarłymi"

Luty 2015 r. Podczas odbywającego się w Sztokholmie sympozjum "Briliant Minds" Rosjanka Eugenia Kuyda, współzałożycielka specjalizującego się w sztucznej inteligencji startupu Luka, przedstawia wirtualny konstrukt swojego bliskiego przyjaciela, Romana Mazurenko, który zginął w wypadku samochodowym niespełna pół roku wcześniej.

Jej firma ma już wtedy w ofercie aplikację na iPhone, oferującą wykorzystujące sztuczną inteligencję czatboty, z którymi można było rozmawiać na różne tematy. Boty miały różne "charaktery" i style konwersacji, czasem wzorowane na bohaterach filmów czy seriali - użytkownik mógł wybrać, z kim ma ochotę rozmawiać. Konstrukt zaprezentowany w Sztokholmie opierał się na tej samej technologii, jednak zamiast odwzorowania wymyślonych cech nieistniejącej postaci miał mieć osobowość nieżyjącego człowieka, którego Kuyda nazywała swoją bratnią duszą.

Współzałożycielka Luki wykorzystała ponad 10 tys. wiadomości SMS, zapisów rozmów z komunikatorów Messenger i WhatsApp zmarłego przyjaciela oraz jego wpisy na Facebooku i Telegramie, traktując je jako dane wejściowe dla sztucznej inteligencji chatbota. Co ciekawe, każdy właściciel telefonu Apple’a może "porozmawiać" z Romanem - Kuyda udostępniła wirtualny konstrukt swojego przyjaciela do pobrania w sklepie iTunes.

Rozmowa z botem o osobowości Romana Mazurenko

Eugenia Kuyda nie jest jedyną osobą ze świata technologii, którą zainspirowało "Czarne lustro". Już rok wcześniej w inkubatorze startupów amerykańskiej uczelni technicznej, MIT powstaje Etherni.me - firma, która stawia sobie za cel rozwinięcie algorytmów mogących skutecznie imitować osobowość zmarłej osoby na podstawie jej "cyfrowego śladu". Jej założyciel, pochodzący z Rumunii Marius Ursache, naśladujący stylem zarostu filmowego milionera, geniusza i bohatera Tonego Starka alias Iron Man, ma też ambitny plan dodania do symulacji trójwymiarowego awatara zmarłego.

Etherni.me obiecuje cyfrową nieśmiertelność. Potrzebuje jednak danych - ogromnych ilości danych. Sztuczna inteligencja budowana przez Ursache wykorzystywała dane z Facebooka, Twittera, korespondencji e-mailowej, a także zdjęcia i filmy, a nawet dane o lokalizacji oraz zapisy z opasek fitness.

Wypuszczona w 2015 roku pierwsza, testowa wersja tego, co twórcy startupu nazwali roboczo "Skype ze zmarłymi" okazuje się kompletną porażką. Trzydziestka użytkowników testujących oprogramowanie narzeka między innymi na robiące niepokojące wrażenie animowane awatary. Dał tu o sobie znać efekt nazywany "doliną niesamowitości" (ang. uncanny valley). Polega on na tym, że jeśli robot lub animacja bardzo dokładnie, ale wciąż niedoskonale naśladują wygląd człowieka, nasz umysł wychwytuje te drobne oznaki fałszu i reaguje odrazą i strachem.

Na obrazy "ożywionych zmarłych" było jeszcze za wcześnie. O ile sztuczna inteligencja i uczenie maszynowe potrafiły zbudować wiarygodny, nadający się do rozmowy przez czat model osobowości, w dziedzinie tworzenia wizualnej iluzji zmarłego potrzebny był kolejny przełom. Przyniosła go technologia deepfake. Jak potrafi wyglądać? A wiecie, że w tym fragmencie serialu z uniwersum "Gwiezdnych Wojen" "The Mandalorian" grający Luke’a Skywalkera aktor Mark Hamill nie pojawia się we własnej osobie nawet na chwilę?

Głębokie oszustwo w służbie nostalgii

Zaczęło się jak zwykle - niewinnie. Nawet najlepiej przygotowana lokalna wersja językowa filmu kinowego czy telewizyjnego drażniła widoczną niezgodnością miedzy słyszanymi kwestiami a ruchem warg aktora, który przecież wypowiadał zupełnie inne słowa. Szukając rozwiązania trójka naukowców: Christoph Bregler, Michele Covell i Malcolm Slaney opublikowała w 1997 roku artykuł opisujący innowacyjny program, który był w stanie cyfrowo odwzorować na obrazie aktora ruchy warg odpowiadające dowolnym słowom. Efekty jego działania były imponujące, choć wciąż widać było wyraźnie ślady manipulacji.

John F Kennedy twierdzi, że nigdy nie spotkał Forresta Gumpa - efekt pracy zespołu Christopha Breglera

Na początku XXI wieku błyskawiczny postęp w mocy obliczeniowej komputerów i prace nad tworzeniem animowanych na żywo cyfrowych modeli twarzy szykują grunt pod kolejne przełomy. W 2016 roku badacze z politechniki w Monachium opracowują system odwzorowywania wyrazu twarzy w czasie rzeczywistym. W ramach projektu Face2Face prezentują, jak na nagraniu George W. Bush i Donald Trump robią dziwne miny, odwzorowując na bieżąco mimikę jednego z naukowców.

Efekty pracy zespołu Face2Face

Rok później na uniwersytecie Waszyngton przyszła kolej na innego amerykańskiego prezydenta, Baracka Obamę. Zespół projektu "Rewrite Obama" zdołał stworzyć praktycznie nieodróżnialną od rzeczywistości wersję przemówienia Obamy - tyle, że z zupełnie innymi słowami.

Deepfake dziś w skrócie wygląda tak: ktokolwiek pojawia się na filmie, może być tak naprawdę doskonale odwzorowaną, realistycznie poruszającą się twarzą dowolnej innej osoby.

Nazwę deepfake, będącą złożeniem słów deep (głęboki, od uczenia głębokiego) i fake (fałszywka) rozpropagował seks. A dokładniej, udostępnione w serwisie Reddit przez użytkownika podpisującego się właśnie jako "Deepfake" filmy pornograficzne, w których twarze występujących tam kobiet zamieniono na wizerunki znanych aktorek, między innymi Gal Gadot, Maisie Williams i Taylor Swift. Dla nas jednak ważne jest zastosowanie tej technologii do tworzenia realistycznych awatarów zmarłych osób, a te pojawiły się szybko.

Selfie z Salvadorem Dali i dyskusja z Albertem Einsteinem

Od 2019 roku odwiedzający The Dali Museum w Petersburgu na Florydzie mają możliwość spotkać odtworzonego cyfrowo malarza Salvadora Dalego. Ekscentryczny wygląd i charakterystyczna mimika artysty zostały odtworzone przez sztuczną inteligencję szkoloną przez ponad 1000 godzin na archiwalnych materiałach filmowych z udziałem Dalego. Zrekonstruowany awatar może wchodzić w interakcję ze zwiedzającymi, nie ma co jednak liczyć na swobodną rozmowę, bo - zgodnie z zamysłem twórców - wirtualny malarz wypowiada tylko te kwestie, które kiedykolwiek padły z ust jego pierwowzoru. Może poza propozycją, żeby zwiedzający zrobili sobie z nim selfie.

Salvador Dali chętnie rozmawia ze zwiedzającymi jego muzeum i proponuje im wspólne zdjęcie

Nowozelandzka firma UneeQ, specjalizująca się w tworzeniu "cyfrowych ludzi", podjęła się wyzwania odtworzenia wyglądu, głosu oraz zachowania Alberta Einsteina. Przygotowany z wykorzystaniem sztucznej inteligencji i uczenia maszynowego awatar słynnego fizyka ma niezwykle realistyczną mimikę, a jego głos - opracowany dzięki licznym nagraniom -doskonale oddaje charakterystyczny, niemiecki akcent. Setki zachowanych listów i notatek Einsteina posłużyły jako materiał treningowy dla konwersacyjnej sztucznej inteligencji - takiej, o jakiej mówiliśmy na początku tego artykułu. Zapewnia ona możliwość rozmowy z nieżyjącym już geniuszem - rozmowy, podczas której możemy być pewni, że styl i temperament wypowiedzi, słownictwo i humor bota stanowią bliskie odwzorowanie sposobu bycia genialnego fizyka. W tej chwili jest to prawdopodobnie najpełniejsze "cyfrowe wskrzeszenie", o jakim publicznie wiadomo.

Tak powstał cyfrowy awatar Alberta Einsteina - każdy może porozmawiać z nim przez sieć

Czy to znaczy, że wkrótce w ten sam sposób będziemy mogli spotkać się z naszymi zmarłymi bliskimi? Jest szereg ograniczeń.

Kłopoty z przywoływaniem duchów

Zacznijmy od końca, czyli od cyfrowego wizerunku. Stworzenie wirtualnego awatara, czyli w pełni animowanego wizerunku zmarłego, który będzie na tyle realistyczny, że skonfrontowany człowiek podda się tej iluzji i nie odczuje efektu "doliny niesamowitości", wymaga wielu godzin pracy profesjonalnego zespołu używającego narzędzi wartych dziesiątki tysięcy dolarów. Co więcej, sam awatar jest tylko cyfrową maską - za poczucie obcowania z żywym człowiekiem odpowiada aktor, na którego tę maskę się zakłada. To właśnie jego mimikę i jego ruchy widzimy. Wszystko to czyni realistyczne odtworzenie zmarłych bliskich w trzech wymiarach praktycznie niedostępnym dla przeciętnego zjadacza chleba.

Najlepszym, na co można pozwolić sobie na masową skalę, jest zaoferowana przez serwis genealogiczny MyHeritage usługa DeepNostalgia. Można dzięki niej "ożywić" zdjęcia nieżyjących krewnych, dodając do nich realistycznie wyglądające ruchy oczu i głowy, prostą mimikę. Nie ma tu jednak mowy o faktycznym tworzeniu modelu danej osoby czy możliwości animowania jej.

Usługa DeepNostalgia z portalu MyHeritage pozwala "ożywić" fotografie

Znacznie lepiej wygląda sytuacja z konwersacyjnymi AI czy czatbotami. Poziom zaawansowania algorytmów uczenia głębokiego pozwala na tworzenie przekonujących symulacji bez konieczności angażowania wielkich mocy obliczeniowych i specjalistycznego wyposażenia. Choć nie ma dziś na rynku firmy, która oferowałaby wprost cyfrowe wywoływanie duchów naszych bliskich, dostępne jest wiele usług, które pozwalają wytrenować sztuczną inteligencję z wykorzystaniem internetowych pozostałości po zmarłych.

Na początku 2021 roku Microsoft uzyskał patent na technologię, która umożliwia tworzenie chatbotów stworzonych na podstawie, cytując wniosek patentowy, "przeszłej lub obecnej osoby, takiej jak przyjaciel, krewny, znajomy, celebryta, postać fikcyjna lub historyczna". Mimo to korporacja deklaruje, że nie ma w planach uruchamiania usług cyfrowego zmartwychwstania.

To jednak nie problemy technologiczne są w tej chwili najpoważniejszą przeszkodą dla rozwoju technologicznego spirytyzmu. Wiele osób ma poważne wątpliwości, czy tego typu działania są właściwe pod względem moralnym i psychologicznym. Wśród wątpiących jest też pionierka cyfrowych wskrzeszeń, Eugenia Kuyda.

"To niewątpliwie jest przyszłość, a ja zawsze jestem za przyszłością. Ale czy to naprawdę jest dla nas dobre? Czy zmuszając się do przeżywania tych emocji wciąż na nowo faktycznie pomagamy sobie zaakceptować to, że ktoś odszedł? Czy raczej tylko trzymamy trupa na strychu?" - mówi w rozmowie z The Verge twórczyni Luki, nawiązując do zakończenia odcinka "Zaraz wracam".

Pojawiają się też inne wątpliwości. Czatbot wytrenowany za pomocą zapisów rozmów zmarłej osoby może całkiem skutecznie ją udawać, ale przecież nie jest nią naprawdę. Może poznać fakty i nauczyć się stylu wypowiedzi, ale będzie brakowało mu kluczowych umiejętności, takich chociażby jak możliwość mijania się z prawdą.

Ludzie bardzo często ograniczają to, którymi informacjami i z kim się dzielą. Czy przyswoiwszy zawartość wszystkich rozmów i całej korespondencji danej osoby czatbot będzie potrafił zrozumieć, że żona mogłaby nie chcieć znać gorących listów do koleżanki z pracy, ukochana córka dowiedzieć się, że została adoptowana, a przyjaciel przeczytać, że tak naprawdę był ledwie tolerowany? Prawdopodobnie nie. Będzie po prostu używał całej dostępnej mu wiedzy, bo tak został nauczony.

Jak zachowywać się będzie czatbot skonstruowany na podstawie czyichś rozmów, wpisów i korespondencji, ale bez uwzględnienia poprawki na kontekst kulturowy, w którym te dane powstawały, a który mógł być zupełnie inny, niż ten, w którym funkcjonował będzie cyfrowy awatar? Możliwe, że wyrządzi wizerunkowi swojego pierwowzoru nieodwracalne szkody.

Faheem Hussain, adiunkt uniwersytetu stanowego Arizony, powiedział w rozmowie z dziennikarzami Reutersa: "Technicznie możemy odtworzyć online każdego, jeśli tylko będziemy mieli dość danych". Pytanie brzmi, czy powinniśmy? Za ostrzeżenie może służyć choćby to, co dzieje się dalej w odcinku "Zaraz wracam" z "Czarnego lustra": do domu Marty "wprowadza się" android, który mówi, zachowuje się i wygląda jak Ash. I to jest dopiero początek problemów.

Kto i kiedy wprowadzi się do naszych domów?

Źródło artykułu:WP magazyn
Komentarze (90)