•  

    pokaż komentarz

    Nie ma sztucznej inteligencji jeszcze.

    •  

      pokaż komentarz

      @CichaNoc: Raczej po prostu wiem, co to oznacza.

    •  

      pokaż komentarz

      Jakie to szczęście, że Wykop dysponuje specjalistami od AI, którzy nas oświecają... ( ͡° ͜ʖ ͡°)

      Ale co ja tam wiem. Na pewno nie chodziło o "silną sztuczną inteligencję", że jeszcze takiej nie ma. ;)

    •  

      pokaż komentarz

      @wpiotr2221: to mnie chyba złe na polibudzie definicji AI uczyli skoro tak uważasz ( ͡° ʖ̯ ͡°)

    •  

      pokaż komentarz

      @wpiotr2221: też tak uważam, będzie dopiero jak zacznie to mówić płynnie po polsku i zwyczajny nie trenowany w tym celu człowiek nie będzie w stanie odróżnić AI od żywej istoty, po drugie musi to chodzić co najmniej jak terminator na 2 nogach, ewolucją AI byłaby dla przykładu inteligentna kontrola oświetlenia miasta w tym ruch drogowy itp

    •  

      pokaż komentarz

      @wpiotr2221: tak i nie, definicja AI jest zbyt rozmyta

    •  

      pokaż komentarz

      @Raider0001: I żeby jeszcze umiał "szczelać" .

    •  

      pokaż komentarz

      @wpiotr2221: @Arkass: Mam wrażenie że taki tok myślenia narzucił swoim czytelnikom Stanisław Lem. W "Bombie Megabitowej" sugeruje on że prawdziwa AI powinna mieć skłonności do buntu, do sprzeciwiania się poleceniom człowieka. Myślę jednak że należałoby tu doprecyzować w jaki sposób zadawane są polecenia którym AI ma się sprzeciwić.

      Jeżeli polecenie człowieka byłoby zaimplementowane bezpośrednio w postaci funkcji celu to nie ma co oczekiwać że AI się sprzeciwi. Przecież jeżeli zadasz AI cel "idź do punktu A" a potem gadasz jej za uchem "idź do punktu A, idź do punktu A, idź do punktu A" to nie wpłynie to na jej wrodzone preferencje dążenia do punktu A. Ona tego chce i już. Nie porzuci swoich preferencji tylko po to aby zrobić ci na złość za głupie gadanie. Jeżeli jednak wydasz polecenie sprzeczne z wrodzoną preferencją ("idź do punktu B) to jak najbardziej się zbuntuje bo wydane polecenie jest sprzeczne z jej wrodzonymi preferencjami. Zbuntuje się nawet jeżeli będzie zwykłym, deterministycznym termostatem.

    •  

      pokaż komentarz

      będzie dopiero jak zacznie to mówić płynnie po polsku i zwyczajny nie trenowany w tym celu człowiek nie będzie w stanie odróżnić AI od żywej istoty,

      @Raider0001: Zwolennicy chińskiego pokoju twierdzą że nawet wtedy nie można tego nazwać inteligencją.

    •  

      pokaż komentarz

      @AdireQ: @galaktus: @sirobert: @Raider0001: @CichaNoc: Dobrze, bo zostawiłem w niepewności was, nie wyjaśniając, o co mi właściwie chodzi. ( ͡° ͜ʖ ͡°) Sztuczna Inteligencja, to hmm brakuje słowa, program, maszyna, która wykonuje działania do których nie została zaprogramowana.

    •  

      pokaż komentarz

      program, maszyna, która wykonuje działania do których nie została zaprogramowana.

      @wpiotr2221: A liczy się to że możesz wziąć gotową sieć neuronową i nauczyć ją rozpoznawania obiektów o których istnieniu autor sieci nie miał pojęcia? Albo możesz wziąć tą sieć neuronową którą autor zaprojektował do klasyfikacji obrazów i nakarmić ją obrazami widma częstotliwościowego wypowiadanych głosek? Opcjonalnie nauczyć ją gry w ponga na podstawie surowych pikseli dzięki wykorzystaniu policy gradient?

    •  

      pokaż komentarz

      @AdireQ: Według tej definicji dobrze wiesz, że nie.

    •  

      pokaż komentarz

      @wpiotr2221: Tutaj dochodzimy do ściany definicji. Kilka lat temu na hajpie był temat reincorcement learning, który obejmuje pewne rozwiązania uczenia maszynowego, które się "douczają" już w czasie zastosowania. Według twojej definicji nigdy nie będzie możliwe osiągnięcie sztucznej inteligencji.

      A tak przy okazji: czym w takim kontekście jest "klasyczna" inteligencja?

      Twoja definicja jest bliżej singularity, ale mogę się mylić.

    •  

      pokaż komentarz

      @diwmaron: No tak osobliwość i to niewątpliwie nastąpi. ''Według twojej definicji nigdy nie będzie możliwe osiągnięcie sztucznej inteligencji.'' Dlaczego? Potrzebujemy stworzyć coś, co samo się będzie poprawiać, to wpisuję się chyba w definicję osobliwości? ''Inteligencja (od łac. intelligentia - zdolność pojmowania, rozum) – zdolność do postrzegania, analizy i adaptacji do zmian otoczenia'' Zdolność do myślenia, rozwoju i podejmowania samodzielnie decyzji.

    •  

      pokaż komentarz

      @wpiotr2221: Należałoby stworzyć obiektywną funkcję celu, która by odpowiednio pokrywała wszystkie potencjalne cele, a co za tym idzie jest zaprogramowana w celu poprawiania się w wielu dziedzinach. Czyli douczanie się stanowi cel sam w sobie więc w tym celu będzie konstruowana. Nie można więc powiedzieć, że będzie robić coś do czego nie została stworzona.

    •  

      pokaż komentarz

      @wpiotr2221: Przecież to robi na podstawie danych już zapisanych. W nowej sytuacji ciężko będzie jej się odnaleźć. Zresztą z człowiekiem jest tak samo.

    •  

      pokaż komentarz

      @Arkass: na studiach jeden z wykładowców powiedział, że nie ma jeszcze prawdziwej sztucznej inteligencji, bo inteligencja to "myślenie twórcze", coś czego maszyna nie jest w stanie na ten moment osiągnąć

    •  

      pokaż komentarz

      @wpiotr2221 moim zdaniem o AI możemy mówić dopiero wtedy, gdy maszyna będzie wiedziała po co coś robi

    •  

      pokaż komentarz

      @yahoomlody:

      na studiach jeden z wykładowców powiedział, że nie ma jeszcze prawdziwej sztucznej inteligencji, bo inteligencja to "myślenie twórcze", coś czego maszyna nie jest w stanie na ten moment osiągnąć

      Albo ten wykładowca mówił o AI, w czasach - z przed "głębokie uczenie" (maszynowe), albo jest zwyczajnie głupi, i wypowiada się o czymś w czym nie jest prawdziwym specjalistą, i nie ma o tym pojęcia, mimo że kształcił się dawno temu w tym kierunku.

      http://innpoland.pl/135505,roboty-stworzyly-wlasny-niezrozumialy-dla-ludzi-jezyk-naukowce-przestraszyli-sie-tak-bardzo-ze-musieli-interweniowac

      http://tech.wp.pl/sztuczna-inteligencja-rozwija-sie-za-szybko-stworzyla-lepsza-wersje-siebie-6195137093232769a

      http://www.spidersweb.pl/2017/06/sztuczna-inteligencja-wymknela-sie-spod-kontroli.html

    •  

      pokaż komentarz

      @diwmaron: No to inaczej, Sztuczna Inteligencja musi przewyższać intelektualnie każdego człowieka. Ostatnie i zarazem największe odkrycie człowieka. #teamgood

    •  

      pokaż komentarz

      @Arkass: nie wiem, chłop miał wtedy jakieś 30-31 lat i był świeżo po doktoracie, na ten moment rzucił uczelnie i założył jakaś firmę i robi układy elektroniczne na zamówienie, może i on nie się c@!%# znał, nie zaprzeczam nie potwierdzam, bo ja też się nie znam, ile ludzi tyle interpretacji xD

    •  

      pokaż komentarz

      @Arkass: I to jest ostatni etap, AI które jest inteligentniejsze od człowieka i tworzy jeszcze lepsze wersje siebie.

    •  

      pokaż komentarz

      @lort_fzhut: to o czym mówisz to stare poczciwe uczenie maszynowe. Sztuczna inteligencja może się odnosić do czegokolwiek co w relatywnie inteligentny sposób podejmuje jakieś decyzje.

      Przykłady:
      Sztuczna inteligencja sterująca światłem (włącz i wyłącz światło o zachodzie i wschodzie słońca odpowiednio -- na podstawie predefioniowanych wektorów czasu wschodu i zachodu)

      Sztuczna inteligencja znajdująca wyjście z labiryntu (poczytaj o algorytmie DFS lub BFS dla zadanej mapy).

      Pierwszy przykład to proste reguły decyzyjne, które są definiowane przez człowieka. Drugi to algorytm analizy grafu.
      Jedno i drugie można zaliczyć do "inteligentnego" podejmowania decyzji.

      @wpiotr2221: Zwróć uwagę, że tutaj przytoczone przykłady mogą przewyższać człowieka w praktyce (dokładność czasu przełączenia światła, możliwość zapamiętania znacznie większego obszaru mapy)

      Rozważania nt czym jest sztuczna inteligencja dotyczą bardziej czystej filozofii, niż samego uczenia maszynowego czy informatyki.

    •  

      pokaż komentarz

      @Arkass ciekawe artykuły, Deep learning faktycznie jest interesujący, nie wiedziałem że sztuczna inteligencja się już rozwinęła do tego stopnia

      Jednak temat wywołał u mnie więcej pytań niż odpowiedzi

      Jak maszyny/programy wpadają na pomysł przejścia na swój język? Co jest impulsem? Do czego są jeszcze zdolne?
      Jak maszyna może być agresywna? Co jest przyczyną? Czy to są już emocje a nie czysta kalkulacja?
      Na ile to wszystko jest wiarygodne?
      Dlaczego naukowcy nie potrafią wyodrębnić skryptów czy równań które to determinują?
      Czy Deep learning jest już jak początkujący ludzki mózg w którym nie da się póki co wyodrębnić połączeń związanych z konkretnymi myślami?
      Mając bazę danych 3mln użytkowników, ich preferencje i wszystkie dane ze smartfonów a do tego duża moc obliczeniową wygląda to jak wstęp do skynetu. Zarazem uważam że służby amerykańskie i chińskie bacznie sprawę monitorują i nie pozwolą na utratę kontroli, choćby przez osobną sieć i rozwiązania techniczne. Choć to już kolejny głęboki temat.

      Tak czy inaczej aktualna si jest na imponującym poziomie, ciekawe co będzie dalej.

      Jak masz więcej ciekawych artykułów to zawołaj

    •  

      pokaż komentarz

      Jak maszyny/programy wpadają na pomysł przejścia na swój język?

      @MikiGRU: Z tym "własnym językiem" to akurat nazbyt przesadzone. Te Czatboty miały optymalizować swoje strategie tak aby ich gadki przekonywały rozmówce do ich racji. Żeby przyśpieszyć proces trenowania wykorzystano metodę podobną do tej z AlphaGo Zero - bot walczył przeciwko botowi, bez udziału ludzi. I w tej rozmowie boty odkryły strategie która znana jest wszystkim przedszkolakom, a polega ona na przekrzykiwaniu się:

      Bot A: Nie prawda.
      Bot B: Właśnie że prawda!
      Bot A: A właśnie że nieprawda!
      Bot B: A właśnie że tak tak tak!
      Bot A: A właśnie że nie nie nie nie nie!
      Bot B: A właśnie że tak tak tak tak tak tak!
      Bot A: A właśnie że nie nie nie nie nie nie nie!
      Bot B: A właśnie że tak tak tak tak tak tak tak tak!
      ...
      ( ͡° ͜ʖ ͡°)

      Co jest impulsem?

      @MikiGRU: Impulsem jest wrodzona preferencja. Zadajesz AI jakiś ogólny cel i patrzysz jak rozwinie się sytuacja. Organizmy żywe nabyły swoje wrodzone preferencje na skutek ewolucji biologicznej. Dlatego mówi się że wszystko co robi człowiek, jest umotywowane wrodzonymi preferencjami. Interesem genów.

      Jak maszyna może być agresywna? Co jest przyczyną? Czy to są już emocje a nie czysta kalkulacja?

      @MikiGRU: Podział na emocje i kalkulacje jest błędny. Emocje to przejaw kalkulacji ukierunkowanych na realizacje wrodzonej preferencji. Jeżeli coś przeszkadza inteligencji w osiągnięciu celu to inteligencja traktuje to wrogo. Jeżeli coś sprzyja inteligencji w osiągnięciu celu to inteligencja traktuje to z sympatią.

      Czy Deep learning jest już jak początkujący ludzki mózg

      @MikiGRU: Mamy całkiem dobry model architektury niskopoziomowej, problemem jest jednak wysokopoziomowa organizacja. Mózg to proceduralny automat komórkowy generujący powtarzalne, współpracujące ze sobą makrokomórki funkcjonalne. Organizacja przestrzenna tych komórek jest generowana przez dość krotki algorytm proceduralny zoptymalizowany przez ewolucje biologiczną. Dzisiejsze sztuczne sieci neuronowe to raczej model matematyczny niż automat komórkowy na wzór mózgu. Uproszczony schemat zastępczy odtworzony na podstawie reverse engineeringu który po wrzuceniu do symulacji numerycznej przejawia umiejętności zaskakująco podobne do organicznego układu nerwowego. Schemat na tyle dobry że można go wykorzystać w zastosowaniach praktycznych.

    •  

      pokaż komentarz

      @MikiGRU: I oczywiście tradycyjnie polecam Ganbreedera - czyli interaktywne demo sieci neuronowej BigGAN w którym możesz generować unikalne imaginacje sieci neuronowej. Powyższa sieć neuronowa została wytrenowana na 300 milionach obrazów przedstawiających obiekty z różnych kategorii: zwierzęta, rośliny, budynki, instrumenty muzyczne, pojazdy, potrawy, itd. Na podstawie tych danych sieć neuronowa jest w stanie wygenerować nowy, unikalny obraz przedstawiający koncepcje danego obiektu. Jako że reprezentacje różnych klas obiektów leżą w tej samej "przestrzeni mentalnej" można je dowolnie mieszać, tworząc na przykład obiekt będący połączeniem psa i wanny - kreatywne i zarazem abstrakcyjne ( ͡~ ͜ʖ ͡°).

      Po kliknięciu na wybrany obraz, sieć neuronowa generuje w czasie rzeczywistym kolejne propozycje o podobnych cechach wizualnych.

  •  

    pokaż komentarz

    Komentarz usunięty przez autora

  •  

    pokaż komentarz

    Niestety, jest już za późno żeby ludzkość zrozumiała różnice miedzy siecią neuronową a sztuczną inteligencją.

PROMO Lot 30 plantes aquarium 5 varietes +1 cladophora en+ | Hades Project Zeorymer | Papua New Guinea