Nauka i technologie rozwijają się w błyskawicznym tempie. Massachusetts Institute of Technology publikuje co roku listę dziesięciu najważniejszych trendów, z których każdy ma potencjał, aby zmienić naszą rzeczywistość. Niektóre z nich dotyczą również przemysłu – przedstawiamy bieżące zestawienie.

Konkurujące ze sobą sieci neuronowe

Sztuczna inteligencja, doskonała w wykrywaniu podobieństw cierpi na pewne ograniczenia — brakuje jej wyobraźni potrzebnej do samodzielnego tworzenia. Oznacza to, że takie algorytmy z łatwością wyodrębniają obrazy, na których znajdują się różne obiekty czy osoby, jednak same nie potrafią takiego obrazu stworzyć. Ma się to zmienić za sprawą odkrycia dokonanego na uniwersytecie w Montrealu. Stworzona przez Iana Goodfellowa o koncepcja Generative Adversarial Network (GAN) sprawiła, że sztuczna inteligencja uzyskała coś, co można określić rodzajem „wyobraźni”. Jak do tego doszło?

W dużym uproszeniu GAN polega na rywalizacji dwóch sieci neuronowych w grze przypominającej kotka i myszkę. Obie sieci uczą się na podstawie tej samej bazy danych. Jedna z nich przyjmuje rolę generatora i na podstawie widzianych wcześniej obrazów tworzy podobne. Druga, zwana dyskryminatorem, sprawdza, czy wygenerowany obraz jest wygenerowaną przez maszynę wadliwą kopią. W ten sposób maszyna odrzuci grafikę przykładowej osoby mającej dodatkową kończynę lub oczy z tyłu głowy. Z czasem komputer uzbrojony GAN staje się tak dobry w tworzeniu obrazów, jak algorytmy uczenia maszynowego w ich odróżnianiu. W testach okazało się, że technologia doskonale radzi sobie z naśladowaniem ludzkiej mowy, jak również z tworzeniem fotorealistycznych obrazów. Wygenerowane przez SI materiały charakteryzowały się takim realizmem, że odróżnienie sztucznie wygenerowanych próbek od prawdziwych przykładów było co najmniej problematyczne.

Przetwarzanie mowy w czasie rzeczywistym

Wiele osób z pewnością pamięta sceny z takich filmów science fiction jak Star Trek, gdzie bohaterowie za sprawą ekstrawaganckiej technologii nie tylko rozumieli obce języki, lecz nawet z łatwością się w nich komunikowali. Bieżący rok przybliża nas do tej rzeczywistości, a wszystko za sprawą opracowywanych urządzeń do tłumaczenia języka mówionego w czasie rzeczywistym. Takimi są m.in. słuchawki Google Pixel Buds (tutaj więcej do poczytania). Za pośrednictwem połączonej ze smartfonem słuchawki możliwe będzie natychmiastowe tłumaczenie sentencji wypowiadanych w innym języku przez rozmówcę na pożądany przez użytkownika.

„Pomimo pewnych niedoskonałości tego rozwiązania, jest to bardzo obiecująca technologia bazująca na technice NLP (Natural Language Processing) czyli przetwarzaniu języka naturalnego. — To jedno z podstawowych narzędzi cognitive computingu, pozwalającego na badanie danych “ze zrozumieniem”. Dzięki temu, możliwe jest tłumaczenie tekstu w czasie rzeczywistym – także w formie głosowej, ale także przeszukiwanie ogromnych zbiorów firmowych danych w poszukiwaniu nie tyle danej frazy czy zdania, ale nawet konkretnego kontekstu ich zastosowania czy poddawanie analizie biznesowej całego cyfrowego dobytku przedsiębiorstwa, a nie jedynie jego skrawka. Techniki kognitywne potrafią sięgać także po nieustrukturyzowane dane, czyli te dotychczas niewykorzystywane przez firmy, pozwalając np. na lepsze poznanie klientów dzięki ich aktywności w sieci czy skuteczniejsze przewidywanie trendów bazując na większej liczbie parametrów z wielu źródeł. To bardzo istotna kwestia, biorąc pod uwagę, iż dzisiejszy biznes korzysta jedynie z 10-20% gromadzonych danych” – komentuje temat Jacek Grzyb z firmy teamLeaders, firmy dostarczającej rozwiązania kognitywne.

Warto wspomnieć, że ostatnio, na uwadze zyskuje także technika rozumienia języka naturalnego (Natural Language Understanding, NLU), której rozwój pozwala narzędziom sztucznej inteligencji na „radzenie sobie” z nieprzewidywalnymi danymi wejściowymi, co w przypadku rozmowy odnosi się np. do kolokwializmów, skrótów myślowych czy przestawionych szyków zdań, które dotychczas wprawiały rozwiązania bazujące na SI w zakłopotanie. Przy zastosowaniu NLU zrozumiałe będą komendy zawierające wspomniane elementy czy proste błędy, które system będzie w stanie ujednolicić i udzielić odpowiedzi, nie wymagając korekty ze strony rozmówcy.

AI dla każdego

Sztuczna inteligencja, wcześniej zdominowana przez największe firmy technologiczne i wąsko wyspecjalizowane startupy, za sprawą chmury obliczeniowej ma szanse wejść do powszechnego użytku, usprawniając działalność firm z sektora MŚP. W segmencie rozwiązań IT dla biznesu, wykorzystujących możliwości sztucznej inteligencji obecny jest m.in. Google ze swoim TensorFlow – biblioteką sztucznej inteligencji z licencją open-source. Można z niej bezpłatnie korzystać do tworzenia oprogramowania opartego o algorytmy uczenia maszynowego. Swój udział zaznacza tutaj także Microsoft, zaś o krok naprzód wychodzi Oracle implementujący funkcje sztucznej inteligencji w swoich usługach chmurowych czy oferujący w pełni autonomiczną, a więc “samoobsługową” bazę danych.

Warto wspomnieć, że szeroka dostępność funkcjonalności sztucznej inteligencji będzie wiele zawdzięczać właśnie implementacji rozwiązań AI w usługach chmury obliczeniowej, co systematycznie zyskuje na popularności. Dzięki temu “mirażowi” firmy otrzymają dużo bardziej zaawansowane i inteligentne narzędzia wspierające operacje w poszczególnych obszarach. „Sztuczną inteligencję z powodzeniem stosuje się dzisiaj w sprzedaży, finansach, kadrach, obsłudze klienta czy marketingu. Wykorzystanie uczenia maszynowego pozwala zwiększyć skuteczność kampanii marketingowych i obniżyć ich koszty. Np. w pakiecie CX Cloud Suite zastosowaliśmy oparty na sztucznej inteligencji mechanizm optymalizacji ceny, który sugeruje specjalistom ds. sprzedaży udzielanie rabatów starannie wybranym klientom” – stwierdza Adam Wojtkowski, dyrektor generalny Oracle Polska.

Ponadto dzięki coraz szerszemu dostępowi do narzędzi AI będzie możliwe będzie tworzenie lepszych narzędzi do walki cyberochrony. Sztuczna inteligencja będzie w stanie rozpoznawać odbiegającą od normy aktywność w sieci, wykrywać i “łatać” luki w zabezpieczeniach, przewidywać prawdopodobieństwo cyberataku oraz stwierdzać jego wystąpienie.

Koniec z emisjami CO2

Paliwa kopalne są jednym podstawowych źródeł energii i wszystko wskazuje na to, że w najbliższych latach tej pozycji nie utracą. Ich przetwarzanie nie jest obojętne dla środowiska i wiąże się z wysoką emisją dwutlenku węgla. W Houston w stanie Texas powstaje właśnie Net Power — 50-megawatowa elektrownia. Ma ona wytwarzać energię co najmniej tak tanio, jak standardowe instalacje gazu ziemnego, wychwytując cały dwutlenek węgla uwalniany w tym procesie. Jeśli projekt okaże się sukcesem, elektrownie gazowe mają szansę zastąpić te atomowe, których utrzymanie wiąże się z ogromnymi kosztami. Sposobem na generowanie oszczędności przy wytwarzaniu energii z gazu ziemnego ma być sprzedaż pozyskane w ten sposób dwutlenku węgla. Popyt na CO2 mają również kreować producenci cementu i plastiku.

Inteligentne miasta

Internet Rzeczy to bez wątpienia jeden z najważniejszych trendów ostatnich lat. Za sprawą firmy Alphabet technologia IoT w 2018 roku wkroczy w przestrzeń miejską. Toronto będzie pierwszym miastem, w którym zaawansowane rozwiązania IT będą wykorzystane na szeroką skalę. Projekt Sidewalk Toronto ma być cyfrową odpowiedzią na największe wyzwanie, przed którymi stają współczesne metropolie; transport, dostęp do mieszkań i zużycie energii. Według planów nadbrzeżna część Toronto Quayside ma być poddana rewitalizacji i zmieni się w zieloną dzielnicę, której infrastruktura ma być oparta o technologię Internetu Rzeczy. Cała strefa ma być ze sobą połączona i wymieniać się informacjami, by ekosystem miejski działał sprawnie. Transport publiczny ma być podstawową formą komunikacji, a energia ma pochodzić z odnawialnych źródeł. Według założeń „inteligentne miasto” ma być stworzone dla ludzi. Technologia ma pomagać w przekształceniu struktury miejskiej w przyjazne środowisko. Nie będzie ona futurystyczne, a zielone i naturalne.

Druk 3D z metali

Mimo wielkiego szumu, jaki towarzyszył pojawieniu się na rynku drukarek 3D, maszyny tego typu znalazły się w posiadaniu przede wszystkim pasjonatów nowych technologii czy projektantów, którzy korzystają z nich do tworzenia prototypów. Problematyczny było również samo drukowanie, gdyż jedynym materiałem, który sprawdzał się w tym procesie było tworzywo sztuczne. Drukowanie przy wykorzystaniu innych materiałów, a w szczególności metalu, było drogie i kosztowne.

Sytuacja uległa jednak zmianie, a druk w metalu stał się opłacalny i niebawem może mieć spory wpływ m.in. na branżę produkcyjną. W 2017 roku badacze z Lawrence Livermore National Laboratory poinformowali, że opracowali metodę rozwoju druku 3D elementów ze stali nierdzewnej o wytrzymałości dwukrotnie większej niż tradycyjne, zaś firma Markforged oferuje drukarki 3D do metali w cenie poniżej 100 tys. dolarów.

„Zamawianie części i trzymanie ich w magazynach zostanie ograniczone do niezbędnego minimum, podczas gdy większość potrzebnych komponentów, przynajmniej na poziomie prototypowania lub dla krótkich serii, drukowanych będzie na miejscu” – mówi Piotr Rojek z DSR. Druk w metalu może również zrewolucjonizować branżę budowlaną, umożliwiając błyskawiczne tworzenie szkieletów na placu budowy.

​Markforged | Desktop Metal | GE

Sztuczne embriony

Zarodki utworzone wyłącznie z komórek macierzystych – bez jaj płodowych i spermy? Naukowcy z uniwersytetu w Cambridge udowodnili, że jest to możliwe, tworząc w ten sposób realistycznie wyglądające zarodki myszy. — „Wiedzieliśmy, że komórki macierzyste w swoim potężnym potencjale są magiczne. Nie zdawaliśmy sobie jednak sprawy, że mogą się w tak piękny sposób same organizować” – powiedziała podczas jednego z wywiadów Magdalena Zernicka-Goetz, przewodnicząca zespołu badawczego. Pomimo że z powstałych w ramach projektu embrionów prawdopodobnie nigdy nie narodzą się myszy, naukowcy uznali odkrycie za przełom, który może otworzyć drogę do sztucznego rozmnażania ssaków.

Pełna anonimowość w sieci

W czasach, w których w Internecie można znaleźć na nasz temat niemal wszystko, prawdziwa prywatność to wręcz święty Graal współczesności. Wzrastająca liczba naszych interakcji realizowanych poprzez aplikacje, serwisy społecznościowe, a także zwiększona liczba kontaktów z różnymi użytkownikami znacznie utrudniają pozostanie całkowicie niewidocznym. W najbliższym czasie ma się to jednak zmienić, a całkowita prywatność w sieci może stać się faktem.

Informatycy pracują nad narzędziem, które pozwoli jednej ze stron komunikacji udowodnić drugiej, że dysponuje pewną informacją bez jej ujawniania. Zastosowanie tej technologii w procesach uwierzytelniania – np. bankach ma zapewnić najwyższy od lat poziom anonimowości i obniżyć ryzyko wypłynięcia wrażliwych danych osobowych. Narzędzie ma bazować na algorytmie kryptograficznym zwanym dowodem z wiedzą zerową (zero-knowledge proof). Naukowcy pracują nad tą metodą już od kilkunastu lat, ale zainteresowanie nią znacznie wzrosło w ostatnich latach dzięki rosnącej popularności kryptowalut. Do tej pory większość bitcoinowych transakcji cechowała pełna transparentność – w dowolnym eksploratorze bloków można zobaczyć strony transakcji i ich wartości.

Całkowitą prywatność swoich klientom zaoferowała jednak firma Zcash, która do szyfrowania swoich transakcji używa właśnie algorytmu zero-knowledge proof, czyli tak zwanego zk-SNARK. Może to być ważny krok naprzód w ochronie wrażliwych informacji i rozwoju technologii służących do przechowywania i przetwarzania danych. Zastosowanie omawianego algorytmu w urządzeniach sieciowych może też stać się jednym z głównych rozwiązań bezpieczeństwa, szczególnie w regulowanych branżach, takich jak finanse czy służba zdrowia. Warto dodać, że w zeszłym roku JPMorgan Chase dodał zk-SNARK do swojego własnego systemu płatności bazującego na blockchain.

Genetyczne wróżby

Pewnego dnia po porodzie dzieci otrzymywać będą raport DNA zawierający przewidywania dotyczące szans na atak serca lub zachorowanie na raka, uzależnienie od tytoniu czy posiadanie ponadprzeciętnej inteligencji. Tworzenie takich raportów stało się możliwe dzięki przeprowadzonym na szeroką skalę badaniom genetycznym. W niektóre z nich zaangażowanych było miliony ludzi. Okazuje się, że najczęstsze choroby i wiele cech czy zachowań, w tym inteligencja, są wynikiem nie jednego lub kilku genów, ale wielu genów działających wspólnie. Korzystając z gigantycznych zbiorów danych naukowcy tworzą coś, co nazywają polygenic risk scores (poligenową oceną ryzyka). Mimo, że dzięki takim badaniom otrzymuje się rachunek prawdopodobieństwa, a nie diagnozę, mogą one być niezmiernie przydatne w rozwoju medycyny. Firmy farmaceutyczne mogą wykorzystywać wyniki testów do prowadzenia badań klinicznych leków prewencyjnych np. na chorobę Alzheimera czy dolegliwości sercowe. Wybierając ochotników, którzy mają większe szanse na zachorowanie, będzie można dokładniej sprawdzać działanie leków.

Projektowanie cząsteczek

Kwantowe komputery oferować będą niespotykaną dotychczas moc obliczeniową, zaś naukowcy już dzisiaj szukają dla nich zastosowań. Spośród licznych pomysłów należy zwrócić uwagę na możliwość projektowania cząsteczek. Dzięki niemu mamy szansę otrzymać nowe rodzaje białek, dzięki którym powstaną efektywniejsze leki czy nowatorskie elektrolity dla bardziej pojemnych baterii.

Zaprojektowanie tego typu cząstek wykracza poza możliwości klasycznych komputerów. Nawet prosta symulacja zachowanie się elektronów w stosunkowo prostej cząsteczce wiąże się ogromnymi zawiłościami. Dla komputerów kwantowych takie obliczenia nie stanowią problemu. Udowodnili to niedawno badacze z IBM, którzy wykorzystali siedmiokubitowy komputer do utworzenia modelu cząsteczki zbudowanej z trzech atomów.

Artykuł bazuje na źródłowej publikacji w MIT Technology Review oraz tłumaczeniu Marcela Płoszczyńskiego

Zobacz również

10 trendów technologicznych na 2018 rok