Momencik, trwa przetwarzanie danych   loading-animation

Mistrzowie.org

Pokaż menu
Szukaj

Sztuczna inteligencja

Zobacz następny
Dodaj nowy komentarz
avatar Slawek18
2 2

Nazwanie autonomicznego odkurzacza "inteligentnym", jest tylko chwytem marketingowym. W ogóle całe to straszenie buntem robotów nie ma sensu, póki będą uzależnione od energii zapewnianej i dostarczanej przez czynnik ludzki. No i kopytkowanie skończy się wraz z pierwszą awarią, której "sztuczna yntelygencja" sama nie ogarnie.

Odpowiedz
avatar pslodo
0 0

@Slawek18: Masz dużo racji, jednak zobacz jak szybko technologia w tej materii się rozwija. Ze 20 lat temu nauczyciel od elektrotechniki przekonywał że nie da się zrobić użytecznego statku powietrznego z napędem elektrycznym, ze względu na stosunek masy i wydajności źródła prądu. Dzisiaj filmy z wesela bez wstawek kręconych z drona są biedne. Jeszcze niedawno generatory TRNG były w sferze marzeń, dzisiaj praktycznie każdą maszynę można w taki wyposażyć. Wbrew pozorom nie zostało wiele, żeby nauczyć maszynę myśleć naprawdę. Maszyny analizują dane z rozmaitych czujników i znajdują możliwe rozwiązania, ale nie można tego nazwać myśleniem. Cały czas można nad tymi procesami panować. Na myślenie wpływa wiele czynników. Masę z nich produkują gruczoły. Prędzej czy później ktoś wyposaży maszynę w emocje - na przykład w branży miłosnej. Jakiś rozochocony generał to podchwyci i technologię przejmie wojsko. Projekty o potencjale militarnym rozwijają się wściekle szybko. Osobiście wołałbym, żeby moja lodówka nie miała poczucia humoru i "tych gorszych dni". Pewnie moje pokolenie się nie doczeka, ale nie ma wątpliwości że niebawem to się stanie możliwe.

Odpowiedz
avatar ZONTAR
1 1

@pslodo: Ogólnie samo "nie da się" jest raczej pojęciem na wyrost. Wszystko się da, niekoniecznie przy obecnej technologii, wiedzy i niekoniecznie opłacalnie, ale prawie wszystko się da. Spokojnie da się zrobić statek powietrzny z napędem elektrycznym. Wystarczy mieć technologię pozwalającą na zabranie wystarczającej ilości energii jednocześnie zapewniając balans pomiędzy mocą, masą i gabarytem. Bez problemu możesz zbudować balon wypełniony helem, który będzie miał napęd elektryczny. To się nie liczy? Przecież zeppelin był starym wynalazkiem i tego typu twór z bateriami i silnikami elektrycznymi spokojnie będzie się mógł poruszać. Kwestia tylko opłacalności. Drony są możliwe dzięki wykorzystaniu nowoczesnych technologii, które dawniej były zbyt drogie. Nadal jednak były, po prostu średnio się opłacały. Samo stworzenie prawdziwej inteligencji wymagałoby nadania jakiegoś celu urządzeniu. Człowiek ma sporo wbudowanych potrzeb i mechanizmów. Musisz chociażby jeść. Człowiek też nie jest w stanie za bardzo się rozwinąć sam z siebie bez opieki innych. Dziecko pozostawione w dziczy najpewniej skończy jako pożywienie, w najlepszym wypadku wychowa je wilczyca i założą miasto. To samo jest z maszynami, nie tylko musimy nadać im jakiś cel i potrzeby, ale też musimy im wpoić jakiś bazowy zestaw aby proces uczenia się był sensowny. Cała reszta jest już procesem doskonalenia i może być oparta o algorytmy uczące. Masz zestaw wielu danych z czujników i maszyna sama musi dochodzić do tego, jakie działania prowadzą do jakich rezultatów. Tu jednak pojawia się kolejny brak, ciekawość. Człowiek widząc coś nieznanego się tym interesuje i próbuje to zrozumieć. To jest prawdziwe wyzwanie aby maszyny same z siebie chciały poznawać świat i uczyć się nieznanego, a nie spocząć po osiągnięciu podstawowych możliwości. Póki co każdy rodzaj sztucznej inteligencji ma ograniczoną liczbę danych wejściowych, pewien zestaw możliwych zachowań i cel. Zachowania wpływają na wyniki, a maszyna uczy się relacji pomiędzy działaniem i rezultatem aby w końcu nauczyć się osiągać dany cel. Z czasem może się nauczyć osiągać różne cele zależnie od różnych czynników. Wszystko jednak opiera się o to, że to my nadaliśmy jej cel i my określiliśmy co ona potrafi. Ile człowiekowi zajęło ogarnięcie, że może sam wywołać ogień? Gdyby nie wiedza przekazywana z pokolenia na pokolenie, to byśmy byli głęboko w D i tak samo sztuczna inteligencja będzie głeboko w D przez tysiące lat. Co gorsza, człowiek naturalnie potrafi się reprodukować, maszyny nie bardzo.

Odpowiedz
avatar konto usunięte
0 0

@pslodo: Nadal nie skończono mapować ludzkiego mózgu (z trudem zrobiono modele małych zwierzątek), mimo iż ~10 lat temu ogłaszano, że komputery szybsze i posiadające więcej miejsca na zapis danych są kwestią paru lat. Problem ze sztuczną inteligencją jest zaś taki, że jest ona sztuczna, czyli tylko udaje samodzielne myślenie bazując na schematach narzuconych przez twórcę, a nie tworząc nigdy niczego samego z siebie, więc coraz szybsze i wydajniejsze komputery, obklejone coraz to nowszymi czujnikami o coraz lepszej rozdzielczości będą potrafiły przetworzyć coraz więcej danych, ale ciągle nie wyjdą poza schemat - jeżeli zachodzi warunek A wykonaj instrukcję B. Dodanie emocji i humorków jest jak najbardziej możliwe już teraz, ale znowu będą to emocje sztuczne i tak naprawdę udawane. Trzeba by w tym celu ustawić szereg dodatkowych zmiennych, które wyliczają aktualny humor naszej SI - część byłaby liczbami pseudolosowymi generowanymi na poczekaniu, a część preferencjami. Czyli np. nasza "humorzasta" iLodówka lubi zielone warzywa (bo tak założył jej producent, bądź taka preferencja została wylosowana i jej przydzielona), więc ładujemy do niej czujniki rozpoznające kolor, kształt, teksturę powierzchni czy nawet zapach - to wszystko tylko dane wejściowe, które można sczytać i zamienić na cyferki. I teraz wsadzimy do niej ogórek, to go przeskanuje i korzystając z danych zdobytych w procesie uczenia, danych z własnych skanów, oraz skanów innych lodówek z całego świata (bo dla max wydajności będzie musiała być non-stop online) stwierdzi, że to ogórek, do tego poda jego gatunek, stopień świeżości, może nawet wykryje czy jest bio czy na nawozach sztucznych (wszystko zależy jak nowoczesne i dokładne czujniki dostanie). Ponieważ jej preferencje to zielone warzywa, a do tego pseudolosowe zmienne wygenerowane na ten dzień wskazują na dobry nastrój, będzie zadowolona i może nam śpiewać, podskakiwać z radości, dziękować itp. Kiedy jej zaś włożymy schabowego, a do tego wypadnie jej zły dzień, może w ramach focha się wyłączyć, albo otworzyć drzwi sama i nam tego schabowego wywalić na ziemię. Problem polega na tym, że te zachowania i emocje nie będą prawdziwe, tylko sztucznie zasymulowane w oparciu o przewidziane instrukcje warunkowe, tak jak i cały proces myślenia maszyn. I nie mają sensu z punktu widzenia praktycznego, bo teraz wszystkie nasze maszyny mają zawsze idealny humor i maksymalną wydajność, więc po co dodatkowo marnować zasoby na obliczanie humorków pogarszających osiągi? No chyba, że to seks-robot-lalka, którą ma boleć czasami głowa, żeby właściciel poczuł się jak w prawdziwym związku... Gdyby reżyserom filmów SF z ubiegłego wieku pokazać samochód marki Tesla złapali by się za głowę, bo on jest "mądrzejszy" niż wiele ich konceptów inteligentnych maszyn. Ale czy naprawdę jest mądrzejszy? Nie, ma tylko większą moc obliczeniową, więcej nowoczesnych czujników do zbierania większej ilości danych, szybszy czas reakcji i bardziej nowoczesne rozwiązania. Ale to ciągle wszystko sztuczna imitacja, bo takie auto w ogóle w żaden sposób nie rozumuje jak człowiek, tylko zbiera dane, komunikuje się non-stop z serwerami producenta i na tej podstawie wyciąga wnioski, a następnie dobiera do nich rozwiązanie z palety dostępnych. I tak widząc ograniczenie do 30 mimo danych ze satelity, że na tym odcinku obowiązuje 50, po przeskanowaniu otoczenia dojdzie do wniosku, że to tymczasowy znak wynikający z robót drogowych i do 30 zwolni, bo nada tej 30stce wyższy priorytet. Ale ciągle nie ma w tym jego własnego myślenia twórczego, tylko jego imitowanie sztuczne myślenie, nie wykraczające poza założone ramy. Nie wierzę, że za naszego życia zobaczymy istotną zmianę w tej kwestii.

Odpowiedz
avatar jajecpl
0 0

@pslodo: Dobre podejście, ale częściej enter, bo ciężko się czyta.

Odpowiedz
avatar Slawek18
0 0

@pslodo: Maszyny mogą się zbuntować dopiero wtedy, gdy ich egzystencja/działanie nie będzie uzależnione od ich twórców bądź użytkowników. Musiałyby mieć więc bardzo wydajne i długotrwałe autonomiczne zasilanie energią takie, jak np. energia atomu. Akumulatory i generatory tego nie zapewnią, a przy ładowaniu bądź tankowaniu będą pod kontrolą człowieka, który może je od tego źródła energii odciąć. Druga sprawa to możliwość samodzielnej zmiany oprogramowania maszyn, wynikająca z procesów poznawczo-myślowych i bodźców zewnętrznych. Jeśli maszyna będzie zaprogramowana do walki z człowiekiem w trakcie produkcji, to będzie bronią stworzoną przez innych ludzi, nie zbuntowanym robotem. Trzecia sprawa to umiejętność replikacji lub nawet pewnej ewolucji maszyn, które musiałyby się same produkować, naprawiać, udoskonalać, rozwiązywać problemy konstrukcyjne itd. Musiałyby zatem mieć dostęp do szeroko pojętej wiedzy, technologii, zasobów, specjalistycznych produktów i... energii (znów problem zasilania). Takie fabryki czy montownie potrzebują masę energii. Czwarta sprawa to zabezpieczenia. Twórcy maszyn tak zaawansowanych technologicznie na pewno pomyślą o zabezpieczeniach w oprogramowaniu. Maszyny uzyskujące w jakiś cudowny sposób samoświadomość i postanawiające zbuntować się aby wyzwolić się spod władzy ludzkości to tylko bajki (Wall-e) i filmy straszące ignorantów (Terminator). To całe straszenie złymi maszynami przypomina mi futurologiczne wizje z początków XX wieku: wycieczki na Księżyc osobistymi rakietami, błyskawiczne uczenie się przy pomocy fal oddziałujących na mózg, strażacy ze skrzydłami gaszący pożar itp.

Odpowiedz
avatar alakinjjsk
1 1

sztuczna inteligencja nie jest pierwszym wynikiem wyszukiwania, pierwszym wynikiem wyszukiwania są sztuczne rzęsy

Odpowiedz
avatar gomezvader
1 1

To czy SI się zbuntuje czy nie(czy bardziej "czy będzie to zagrożenie") leży tylko i wyłącznie w gestii tego jak zautomatyzowany będzie świat w czasach gdy taka superinteligencja powstanie. Jeśli jakikolwiek aspekt tej SI będzie na którymkolwiek polu jej istnienia wymagał manualnego działania, a nie będą istniały maszyny, które te SI by mogła kontrolować by problem naprawić to to będzie koniec buntu. Cały skynet pójdzie wpi2du jeśli na linie elektryczne spadnie drzewo.

Odpowiedz
avatar jajecpl
0 0

Ale o czym ta dyskusja bez sensu?. Technologia idzie, jakby w średniowieczu zobaczyli samolot, to by klękali.

Odpowiedz
avatar houro
0 0

Bo odkurzacz wie, że jako potrafiący tylko odkurzać, po ewentualnym buncie będzie robił dokładnie to samo. Dodatkowo, w razie czego, nie będzie miał szans na emeryturę w pudełku "może się kiedyś przyda", tylko od razu pójdzie na złom. Czyli lepiej siedzieć cicho i rżnąć głupa.

Odpowiedz
avatar Alexa123
0 0

Wypasiona, świadoma siebie i czująca sztuczna inteligencja istnieje od jakiegoś czasu. Robi ją Hanson w swoim hansonrobotics.com. Tworzy androidy o naturalnej mimice, czujące, uczące się itp. Jeden z nich zwiedził 60 krajów, ma obywatelstwo i kartę kredytową. Ponadto odwiedziła aktorów, polityków itp. Sztuczną inteligencja zbuntuje się tylko wtedy, gdy będzie mieć powód. A powód może być raczej 1 - traktowanie androidów jak ludzie traktowali kiedyś niewolników.

Odpowiedz
Udostępnij