W ubiegłym tygodniu Apple opublikowało swój pierwszy referat naukowy. Poświęcony jest on sztucznej inteligencji, a dokładnie sposobom związanym z uczeniem sztucznej inteligencji rozpoznawania obiektów na obrazach.

Referat zatytułowany jest „Uczenie się z symulowanych jak i rzeczywistych obrazów za pomocą treningu kontradyktoryjności” został zgłoszony do recenzji w połowie listopada, krótko po oznajmieniu przez Apple, że firma nie będzie więcej wzbraniać swoim pracownikom publikacji prac naukowych dotyczących sztucznej inteligencji. Jego publikacja miała miejsce 22 grudnia. Referat poświęcony jest technikom uczenia różnych algorytmów rozpoznawania obiektów z wykorzystaniem obrazów stworzonych sztucznie lub wygenerowanych przez komputer.

Obrazy wygenerowane przez komputer są zwykle dobrze opisane, algorytm wie od razu, co na danym obrazku się znajduje. Podczas gdy obrazy rzeczywistych obiektów muszą zostać najpierw opisane przez człowieka, zanim komputer będzie się mógł na nich uczyć poprawnego rozpoznawania. Z drugiej strony - co zauważa Apple - bazowanie w pełni na generowanych obrazach nie daje do końca satysfakcjonujących rezultatów. Obrazy takie są bowiem niedostatecznie realistyczne. Apple opracowało więc system, który łączy nieopisane zdjęcia prawdziwych obiektów, z tymi wygenerowanymi przez komputer. Dzięki temu udało się stworzyć fotorealistyczne obrazy o wysokiej rozdzielczości.

Zdecydowanie ciekawszym od samego referatu jest fakt, że Apple zaczęło publikować prace naukowe. Autorem tej pierwszej jest Ashish Shrivastava. Referat dostępny jest na stronie biblioteki Uniwersytetu Cornell.