Racjonalista - Strona głównaDo treści


Fundusz Racjonalisty

Wesprzyj nas..
Zarejestrowaliśmy
204.488.513 wizyt
Ponad 1065 autorów napisało dla nas 7364 tekstów. Zajęłyby one 29017 stron A4

Wyszukaj na stronach:

Kryteria szczegółowe

Najnowsze strony..
Archiwum streszczeń..

 Czy konflikt w Gazie skończy się w 2024?
Raczej tak
Chyba tak
Nie wiem
Chyba nie
Raczej nie
  

Oddano 705 głosów.
Chcesz wiedzieć więcej?
Zamów dobrą książkę.
Propozycje Racjonalisty:

Złota myśl Racjonalisty:
Zawsze intelekt polski obejmował bardzo rozległe horyzonty myślowe. A teraz przeżywamy jeden z najpotężniejszych przewrotów historycznych, a przeto także umysłowych. Trzeba zwracać się do tych, którzy mają odwagę myśleć o rzeczach, o których nikt jeszcze nie myślał, wdawać się w rozmowę z prawdą, przez nikogo jeszcze nie spotkaną i zarejestrowaną, sięgać ramieniem umysłu tam, dokąd nikt jeszcze nie..

Dodaj swój komentarz…
Jacek Placek - Banki
W niektórych krajach, algorytmy stosowane przez banki (ratingi) muszą być jawne (takie prawo). I nie są to szczególnie skomplikowane twory. Jeżeli chodzi o nasze krajowe banki, to sam robiłem jakiś rok temu taki mechanizm dla jednego banku - nie ma w nim żadnej inteligencji. Prezesi nie rozumieją jak działają algorytmy SI, a nikt nie zaryzykuje pieniędzy banku, polegając na algorytmie, który napisał jakiś informatyk - wolą mieć czarno na białym kto co dostanie i dlaczego. Tym bardziej, że w przypadku sieci neuronowej pytanie o uzasadnienie odpowiedzi ma niewielki sens..
Autor: Jacek Placek  Dodano: 24-02-2009
Reklama
Radecki - Niemożliwe w najbliższej przyszłości?   1 na 1
Wielu specjalistów od AI twierdzi, że aktualny stan technologii informatycznych już umożliwia stworzenie maszyny, która przejdzie test Turinga.
Póki co byłoby to jeszcze zadanie klasy "Genome Project" (kilka lat, kilka miliardów USD).
Ale Prawo Moora działa ;)
Autor: Radecki Dodano: 24-02-2009
rudyment - emocje
Ludzka inteligencja bez emocji nie będzie działać. Sztuczna także nie(bo niby dlaczego), czyli jakieś sztuczne emocje takżem usza w sieci neuronowej czy czymś innym być.
Być może Si już istnieje,ale jeśli się uprzemy że coś, co ciągnie wóz, musi koniecznie wyglądać jak koń, to nie zauważymy silnika.
Autor: rudyment Dodano: 24-02-2009
AW. - .   1 na 1
Warto zauważyć, że sieci neuronowe są faaajne, ale koszmarnie nieefektywne. Problem oceny ryzyka kredytu jeśli jest rozwiązywany metodami SI, to na pewno za pomocą dedykowanych systemów ekspertowych (one uwzględniają najróżniejsze czynniki, ale nie mają struktury sieci i dobór wag jest często arbitralny), które są szybkie i małe. 


Zagadnienie rozpoznawania liter również jest rozwiązywane inaczej, systemy OCR dostępne na rynku nie implementują sieci neuronowych.

Problem z siecią neuronową polega na tym, że zazwyczaj jej szybkość działania jest mała, a rozmiar niewspółmiernie duży w stosunku do możliwości. W ramach projektu na PWr należałem do grupy implementującej sieć samouczącą do rozpoznawania odcisków palców i przy wszelkich sensownych rozmiarach obrazka wejściowego rozmiary sieci były niesensowne :) ot tak od 100 MB w górę, z możliwością nauczenia max kilkuset odcisków.

Swoją drogą zagadnienie rozpoznawania odcisków palców w kryminalistyce rozwiązuje się również bez sieci, za to z dużą ilością matematyki (algorytmy identyfikujące charakterystyczne punkty odcisku itd. - materiał na spory artykuł, może na racjonaliście kiedyś? )
pozdrawiam.
Autor: AW. Dodano: 25-02-2009
Lukasz Majczak - inteligencja, a świadomość
Cytat z wykładów SSN z PolSl: "Czy można POWAŻNIE mówić o sztucznej inteligencji, w sytuacji, kiedy maszyna, która z jednej strony wygrywa z mistrzem świata w szachy, z drugiej, nie ma o tym najmniejszego pojęcia?"

Sztuczne sieci neuronowe generalnie sluza do aproksymowania  roznorakich funkcji - gdy znamy argumenty i warosci ale nie znamy wzoru.

Sieci  sa naprawde pozyteczne, ale raczej gdy wspoldzialaja z innymi elementami - raczej bezsensowne wydaje sie tworzenie sieci gdzie na wejscie podaje sie kazdy piksel badanego obrazu, owiele bardziej efktywne jest zastosowanie wstepnego przetwarzania danych, ekstrakcji cech - minimalizacji danych wejsciowych dla sieci.. oczywiscie 'obcinanie' zmiennych wprowadza pewne odchylenia co do wyniku ;)...

Połącznie statystyki, SSN, alg. gen i calej masy algorytmow, metod numerycznych i matemtyki 'w ogole' daje naprawde spore pole do popisu :)
Autor: Lukasz Majczak Dodano: 26-02-2009
Rafał
Jak już stwierdzili poprzednicy do prognozowania efektywności kredytów wystarczy analiza statystyczna. Chociaż w zmiennych warunkach zewnętrznych może być trudno porównać wyniki z różnych okresów.

Końcowe stwierdzenie - że emocje to ważny składnik umysłu, więc stąd problem ze zbudowaniem sztucznego mózgu - to podejście od niewłaściwej strony. Prosty układ sztucznych neuronów nie przejawia tak dużej samoorganizacji jak nasz mózg, więc być może m.in. nie pojawiają się w nim emocje. Na razie budowane są tylko bardzo proste układy sztucznej inteligencji. Kiedy uda się zbudować układ przynajmniej liczbą elementów podobny do mózgu (co może nastapic niedługo), będzie można próbować znaleźć w nim samoorganizację i inteligencję oraz emocje. Ale to może zająć jeszcze wiele lat pracy.
Autor: Rafał Dodano: 27-02-2009
Satyr - komentarz kognitywisty...
W ostatnim akapicie... niezdolność do odczuwania emocji nie ma większego związku z inteligencją (proszę spojrzeć chociażby na socjopatów).
Za to istotnym problemem jest fakt, że stworzenie "sztucznego mózgu" w żadnym razie nie jest niemożliwe. Niemożliwe zaś (na dzień dzisiejszy) jest stworzenie sztucznego umysłu i to tu jest problem (głównie dlatego, iż współczesna nauka nie jest w stanie odpowiedzieć na pytania "czym jest umysł?" i co ważniejsze "jak działa umysł?".
pozdrawiam.
Autor: Satyr Dodano: 27-02-2009
Migotek - Uwaga! Komentarz w trzech cześciach.
Sztuczna Inteligencja nigdy nie powstanie. NIGDY. Zanim mą heretycką głowę rozgniecie młot słusznego gniewu boga postępu, pozwolę sobie zanudzić Autora i szanownych  komentujących historyjką o pewnym eksperymencie logicznym zaprezentowanym w 1980 roku przez Johna R Searle'a w artykule „Minds, Brains, and Programs" w czasopiśmie „Behavioral and Brain Sciences”. Był on parafrazą Testu Turinga, w którym człowiek w jednym, a maszyna/komputer w drugim pokoju jednocześnie odpowiadali na zadawane im pytania. Celem Testu Turinga było, jak zapewne Państwo wiedzą, sprawdzenie czy maszyna aspirująca do miana Sztucznej Inteligencji będzie w stanie tak prowadzić „rozmowę”, że zadający pytania nie byłby w stanie określić czy odpowiedź otrzymał od człowieka, czy od maszyny. Wersję tego testu można było zobaczyć w cytowanym już przez Autora filmie Blade Runner, gdzie finalnie stawiane jest pytanie czy przedmiot w pełni manifestujący i naśladujący „człowieczeństwo” nie staje się podmiotem, ergo istotą posiadającą autonomiczną świadomość, intencjonalność oraz osobowość? Searle
obala tą teorię, prezentując własną wersję Testu Turinga, nazywając go „Chińskim Pokojem”. C.D.N.
Autor: Migotek  Dodano: 30-03-2013
Migotek - Uwaga! Komentarz w trzech cześciach...
Pytania są zadawane na kartce papieru, ale po chińsku. Searle nie zna chińskiego, ale dysponuje bardzo obszerną instrukcją, krok po kroku pokazującą jak łączyć poszczególne symbole alfabetu chińskiego, tak aby powstała „odpowiedź” na zadane mu pytanie. Instrukcja nie wyjaśnia, co znaczą poszczególne symbole, ani co jest pytaniem, a co odpowiedzią. Searle wie jedynie, że jeśli otrzyma na kartce np. dwa zawijasy z trzema kropkami, to ma „odpowiedzieć” jednym zawijasem z dwoma liniami pośrodku itd. Searle pokazuje tutaj, że (w teorii) jest w stanie prowadzić sensowną „rozmowę”, tak aby zadający pytania nie był w stanie się zorientować, że Searle nie ma najmniejszego pojęcia o jej treści. Dopóki Searle „wykonuje” program zawarty w instrukcji nigdy nie będzie świadom
znaczenia rozmowy, ani nawet tego, że ją prowadzi. Nie ma znaczenia obszerność instrukcji, czy szybkość wykonywanych przez Searle'a działań. Nic z tego nie spowoduje nagle zrozumienia znaczenia symboli chińskich ani świadomości prowadzonej rozmowy.
Instrukcja również nie stanie się świadoma mimo jej ogromnej złożoności. C.D.N.
Autor: Migotek  Dodano: 30-03-2013
Migotek - Uwaga! Komentarz w trzech cześciach...
Chiński Pokój dowodzi zatem, że nie jest możliwe zbudowanie takiego systemu  komputerowego lub algorytmu, który operując symbolami syntaktycznymi, będzie „rozumiał” ich semantykę. Mam nadzieję, że domyślacie się już Państwo, że taki system nigdy nie przeszedłby Testu Turinga, nie rozumiejąc znaczenia poszczególnych pytań i odpowiedzi. Myślę, że każdy z Państwa jest w stanie sobie wyobrazić pytanie, które zawiera w sobie wiele różnych znaczeń i wyłącznie od kontekstu rozmowy zależy, jaka odpowiedź jest poprawna. Dla zainteresowanych tematem odsyłam na stronę wiki gdzie znajdą Państwo całą bibliografię oraz pobieżne omówienie samego eksperymentu, a także jego krytykę
en.wikipedia.org/wiki/Chinese_room. Z wrodzonej uprzejmości „spsuję” Państwu niespodziankę: nikt do tej pory nie obalił zasadniczej tezy eksperymentu Searle'a: bez rozumienia znaczenia, nie ma mowy o świadomości ani o umyśle. Pozdrawiam.
P.S. Przepraszam za ten przerost treści, ale temat badań nad umysłem, a także SI jest tak obszerny, że ograniczenie go do dwóch zdań nie pozwoliłoby mi spać w nocy.
Autor: Migotek  Dodano: 30-03-2013

Pokazuj komentarze od najnowszego

Aby dodać komentarz, należy się zalogować

  

Zaloguj przez OpenID..
Jeżeli nie jesteś zarejestrowany/a - załóż konto..

Reklama
[ Regulamin publikacji ] [ Bannery ] [ Mapa portalu ] [ Reklama ] [ Sklep ] [ Zarejestruj się ] [ Kontakt ]
Racjonalista © Copyright 2000-2018 (e-mail: redakcja | administrator)
Fundacja Wolnej Myśli, konto bankowe 101140 2017 0000 4002 1048 6365