Człowiek i AGI, jak ćwiczyć asertywność i słuchanie oraz jak Twój mózg organizuje informacje?
Jeśli Ty nie nadasz swojemu życiu priorytetu, zrobi to ktoś inny.
Dzień dobry,
Zbliża się grudzień-warto pomyśleć o upgrade subskrypcji do rocznej, jeżeli jesteś na miesięcznej (oszczędza się ponad 15%) lub zakupie subskrypcji dla swojego zespołu (ponad 20% zniżki).
PS. Fakturę za subskrypcję można pobrać w każdym momencie w swoich ustawieniach tutaj. Jeżeli potrzebujesz uzupełnić swoje firmowe dane, można to zrobić tutaj.
W dzisiejszym wydaniu między innymi:
Człowiek i AGI
Wprowadzenie do LLMów
Asertywność
Wstyd produktywności.
Jak Twój mózg organizuje informacje?
Umiejętność słuchania
Naprzód!
Człowiek i AGI
Sztuczna Inteligencja Ogólna (AGI) ma być systemem AI, który ma zdolność dorównywania lub przewyższania ludzkiej sprawności w szerokim zakresie zadań. W przeszłości była to kwestia filozoficzna, ale z uwagi na szybki rozwój technologii ML (Machine Learning), AGI zyskało na znaczeniu praktycznym. AGI jest postrzegane jako system zdolny do wykonywania zadań co najmniej tak dobrze, jak człowiek, choć definicje AGI mogą się różnić w zależności od eksperta. Przy okazji całej sagi ze zwolnieniem Sama Altmana i takimi projektami jak Q*, czy A* - warto się na chwilę zatrzymać, żeby lepiej zrozumieć temat lepiej. Chodzi i to, że nie ma jasnej definicji jednego poziomu AGI i dziś chcę trochę rozjaśnić ten temat. Zanim jednak AGI, będzie o ANI.
Sztuczna Inteligencja Wąska (ANI)
ANI, czyli Sztuczna Inteligencja Wąska, to systemy AI zaprojektowane do wykonywania specyficznych zadań. ANI jest ograniczona do określonych działań i nie posiada ogólnej zdolności do uczenia się, rozumienia, czy adaptacji. Przykłady ANI obejmują algorytmy do rozpoznawania mowy, autonomiczne pojazdy czy specjalistyczne chatboty.
AGI
W kwestii AGI Google zaproponował taksonomię AGI, jako klasyfikujące modele AGI i ich prekursorów na podstawie ich zdolności i zachowań. Ta struktura inspirowana jest poziomami autonomicznych samochodów i ma na celu zapewnienie wspólnego języka do oceny, porównywania i śledzenia postępów modeli AGI.
Proponowany przez Google podział wygląda następująco:
Ta struktura klasyfikuje AGI na różne poziomy w zależności od wydajności i ogólności:
Poziomy Wydajności: Zakres od 'Początkującego' (równoważnego nieumiejętnemu człowiekowi) do 'Nadludzkiego' (przewyższającego wszystkich ludzi).
Poziomy Ogólności: Zakres od 'Wąskiego' (skoncentrowanego na określonych zadaniach) do 'Ogólnego' (obejmującego szeroki zakres zadań niematerialnych, w tym zdolności metapoznawcze).
Na przykład, obecne wiodące modele językowe, takie jak ChatGPT, Bard i Llama 2, są klasyfikowane jako AGI na poziomie 1 ('Emerging AGI'), co wskazuje na kompetentne działanie w niektórych obszarach, ale wciąż rozwijające się w innych, takich jak zdolności matematyczne czy aktualność zadań. Rozróżnienie między poziomami AGI a poziomami autonomii podkreśla, że zdolności AGI niekoniecznie równają się autonomii działania Sztucznej Inteligencji. Na koniec są dwie grupy - tzw. AI Doomers, czyli koniec świata i Optymistów. W przypadku tych ostatnich zwracam uwagę na to jak CEO OpenAI widzi temat potencjalnego połączenia człowieka z AI.
Sam Altman (CEO, OpenAI):
A popular topic in Silicon Valley is talking about what year humans and machines will merge (or, if not, what year humans will get surpassed by rapidly improving AI or a genetically enhanced species). Most guesses seem to be between 2025 and 2075.
People used to call this the singularity; now it feels uncomfortable and real enough that many seem to avoid naming it at all.
Perhaps another reason people stopped using the word “singularity” is that it implies a single moment in time, and it now looks like the merge is going to be a gradual process. And gradual processes are hard to notice.
I believe the merge has already started, and we are a few years in. Our phones control us and tell us what to do when; social media feeds determine how we feel; search engines decide what we think.
The algorithms that make all this happen are no longer understood by any one person. They optimize for what their creators tell them to optimize for, but in ways that no human could figure out — they are what today seems like sophisticated AI, and tomorrow will seem like child’s play. And they’re extremely effective — at least speaking for myself, I have a very hard time resisting what the algorithms want me to do. Until I made a real effort to combat it, I found myself getting extremely addicted to the internet. [1]
We are already in the phase of co-evolution — the AIs affect, effect, and infect us, and then we improve the AI. We build more computing power and run the AI on it, and it figures out how to build even better chips.
This probably cannot be stopped. As we have learned, scientific advancement eventually happens if the laws of physics do not prevent it.
More important than that, unless we destroy ourselves first, superhuman AI is going to happen, genetic enhancement is going to happen, and brain-machine interfaces are going to happen. It is a failure of human imagination and human arrogance to assume that we will never build things smarter than ourselves.
Our self-worth is so based on our intelligence that we believe it must be singular and not slightly higher than all the other animals on a continuum. Perhaps the AI will feel the same way and note that differences between us and bonobos are barely worth discussing.
The merge can take a lot of forms: We could plug electrodes into our brains, or we could all just become really close friends with a chatbot. But I think a merge is probably our best-case scenario. If two different species both want the same thing and only one can have it—in this case, to be the dominant species on the planet and beyond—they are going to have conflict. We should all want one team where all members care about the well-being of everyone else.
Although the merge has already begun, it’s going to get a lot weirder. We will be the first species ever to design our own descendants. My guess is that we can either be the biological bootloader for digital intelligence and then fade into an evolutionary tree branch, or we can figure out what a successful merge looks like.
It’s probably going to happen sooner than most people think.
Najbardziej prawdopodobny (moim zdaniem) scenariusz? Taki:
Wprowadzenie do LLMów
Pozostając na chwilę przy temacie AI - naprawdę mocno polecam obejrzeć to wprowadzenie do LLMów - jeżeli nie wiesz o nich nic - dobry początek, jeżeli wiesz coś, zrozumiesz lepiej:
Asertywność
Asertywność oznacza dostosowanie swoich działań do wyznawanych wartości. Wykracza poza zwykłą asertywną komunikację, obejmując zachowania, które odważnie realizują autentyczne pragnienia i potrzeby, jednocześnie szanując prawa innych.
Obejmuje prośby o to, czego się chce, dzielenie się przekonaniami i wyznaczanie granic. Poza mową zawiera także dotrzymywanie zobowiązań i podejmowanie trudnych decyzji zgodnych z wartościami.
Niska asertywność rodzi problemy, takie jak:
Keep reading with a 7-day free trial
Subscribe to Bartek Pucek to keep reading this post and get 7 days of free access to the full post archives.