Informacja

Jakie są ograniczenia przy uprawie sztucznego mózgu?

Jakie są ograniczenia przy uprawie sztucznego mózgu?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Czy są jakieś eksperymenty na hodowaniu sztucznych mózgów z tkanki mózgowej?

Jakie są ograniczenia? Czy taka tkanka dorosła do masy większej niż ludzki mózg przewyższy ją intelektem, czy będzie wymagała dodatkowych warunków?


Powyższe komentarze są dość istotne – dzieli nas wiele lat/dziesiątek lat od rozwoju funkcjonalnych mózgów w laboratorium, więc prawdopodobnie istnieją niezliczone ograniczenia, o których prawdopodobnie jeszcze nawet nie pomyśleliśmy.

Biorąc to pod uwagę, ten artykuł może Cię zainteresować: „Adaptacyjna kontrola lotu z żywymi sieciami neuronowymi na macierzach mikroelektrod” [1]. Autorzy są w stanie z powodzeniem hodować neurony szczurów i łączyć się z nimi elektrycznie w celu kontrolowania pochylenia i odchylenia w oprogramowaniu do symulacji lotu XPlane. To bardzo prymitywny system w porównaniu z prawdziwym mózgiem, ale potrafi z powodzeniem wykorzystywać komórki jako podstawowe żywe sieci neuronowe. Jeśli uważasz, że jest to udany „sztuczny mózg”, to twoje ograniczenia są wszystkie te związane z hodowaniem neuronów.

[1] DeMarse i in. al 2005


9 najważniejszych problemów etycznych w sztucznej inteligencji

Optymalizacja logistyki, wykrywanie oszustw, komponowanie sztuki, prowadzenie badań, dostarczanie tłumaczeń: inteligentne systemy maszyn zmieniają nasze życie na lepsze. W miarę jak systemy te stają się bardziej wydajne, nasz świat staje się wydajniejszy, a co za tym idzie bogatszy.

Giganci technologiczni, tacy jak Alphabet, Amazon, Facebook, IBM i Microsoft – a także osoby takie jak Stephen Hawking i Elon Musk – uważają, że teraz jest właściwy czas, aby porozmawiać o niemal nieograniczonym krajobrazie sztucznej inteligencji. Pod wieloma względami jest to tak samo nowa granica dla etyki i oceny ryzyka, jak w przypadku pojawiających się technologii. Więc jakie kwestie i rozmowy spędzają sen z powiek ekspertom AI?

1. Bezrobocie. Co się dzieje po zakończeniu pracy?

Hierarchia pracy dotyczy przede wszystkim automatyzacji. Gdy wynaleźliśmy sposoby automatyzacji pracy, moglibyśmy stworzyć przestrzeń dla ludzi do przyjmowania bardziej złożonych ról, przechodząc od pracy fizycznej, która dominowała w świecie przedprzemysłowym, do pracy poznawczej, która charakteryzuje pracę strategiczną i administracyjną w naszym zglobalizowanym społeczeństwie.

Spójrz na transport samochodowy: obecnie zatrudnia miliony osób w samych Stanach Zjednoczonych. Co się z nimi stanie, jeśli autonomiczne ciężarówki obiecane przez Elona Muska z Tesli staną się powszechnie dostępne w następnej dekadzie? Ale z drugiej strony, jeśli weźmiemy pod uwagę mniejsze ryzyko wypadków, autonomiczne ciężarówki wydają się wyborem etycznym. Ten sam scenariusz może przydarzyć się pracownikom biurowym, a także większości siły roboczej w krajach rozwiniętych.

Czytałeś?

Tu dochodzimy do pytania, jak spędzimy czas. Większość ludzi nadal polega na sprzedawaniu swojego czasu, aby mieć wystarczający dochód, aby utrzymać siebie i swoją rodzinę. Możemy mieć tylko nadzieję, że ta okazja umożliwi ludziom odnalezienie sensu w działaniach niezwiązanych z pracą, takich jak troska o swoje rodziny, angażowanie się w ich społeczności i uczenie się nowych sposobów wnoszenia wkładu w społeczeństwo ludzkie.

Jeśli odniesiemy sukces w przejściu, pewnego dnia możemy spojrzeć wstecz i pomyśleć, że to barbarzyństwo, że ludzie musieli sprzedawać większość swojego czasu na jawie tylko po to, by móc żyć.

2. Nierówność. Jak dystrybuujemy bogactwo stworzone przez maszyny?

Nasz system gospodarczy opiera się na rekompensatach za wkład w gospodarkę, często ocenianych na podstawie stawki godzinowej. Większość firm nadal jest uzależniona od pracy godzinowej, jeśli chodzi o produkty i usługi. Ale wykorzystując sztuczną inteligencję, firma może drastycznie ograniczyć poleganie na ludzkiej sile roboczej, a to oznacza, że ​​przychody trafią do mniejszej liczby osób. W rezultacie osoby, które są właścicielami firm opartych na sztucznej inteligencji, zarobią wszystkie pieniądze.

Już teraz obserwujemy pogłębiającą się lukę majątkową, w której założyciele start-upów zabierają do domu dużą część generowanej przez siebie nadwyżki ekonomicznej. W 2014 r. mniej więcej takie same przychody wygenerowały trzy największe firmy w Detroit i trzy największe firmy w Dolinie Krzemowej. tylko w Dolinie Krzemowej było 10 razy mniej pracowników.

Jeśli naprawdę wyobrażamy sobie społeczeństwo po pracy, jak ustrukturyzować sprawiedliwą gospodarkę po pracy?

3. Ludzkość. Jak maszyny wpływają na nasze zachowanie i interakcję?

Sztucznie inteligentne boty coraz lepiej modelują rozmowy i relacje międzyludzkie. W 2015 roku bot o imieniu Eugene Goostman po raz pierwszy wygrał Turing Challenge. W tym wyzwaniu ludzie oceniający używali wprowadzania tekstu do rozmowy z nieznaną istotą, a następnie odgadywali, czy rozmawiali z człowiekiem, czy z maszyną. Eugene Goostman oszukał ponad połowę ludzkich oceniających, myśląc, że rozmawiali z istotą ludzką.

Ten kamień milowy to dopiero początek ery, w której często wchodzimy w interakcję z maszynami tak, jakbyśmy byli ludźmi, czy to w obsłudze klienta, czy w sprzedaży. Podczas gdy ludzie mają ograniczoną uwagę i życzliwość, jaką mogą poświęcać innej osobie, sztuczne boty mogą kierować praktycznie nieograniczone zasoby na budowanie relacji.

Chociaż niewielu z nas zdaje sobie z tego sprawę, jesteśmy już świadkami tego, jak maszyny mogą wyzwalać ośrodki nagrody w ludzkim mózgu. Wystarczy spojrzeć na nagłówki i gry wideo. Te nagłówki są często optymalizowane za pomocą testów A/B, podstawowej formy algorytmicznej optymalizacji treści, która ma przyciągnąć naszą uwagę. Ta i inne metody są wykorzystywane do uzależniania wielu gier wideo i mobilnych. Uzależnienie od technologii to nowa granica ludzkiej zależności.

Z drugiej strony, być może możemy wymyślić inne zastosowanie oprogramowania, które już stało się skuteczne w kierowaniu ludzkiej uwagi i wyzwalaniu określonych działań. Właściwe użycie może przekształcić się w okazję do popchnięcia społeczeństwa w kierunku bardziej korzystnych zachowań. Jednak w niepowołanych rękach może się to okazać szkodliwe.

4. Sztuczna głupota. Jak możemy się ustrzec przed błędami?

Inteligencja pochodzi z uczenia się, niezależnie od tego, czy jesteś człowiekiem, czy maszyną. Systemy zwykle mają fazę szkoleniową, w której „uczą się” wykrywać właściwe wzorce i działać zgodnie z ich wkładem. Gdy system zostanie w pełni przeszkolony, może przejść do fazy testowej, w której otrzymuje więcej przykładów i widzimy, jak działa.

Oczywiście faza szkolenia nie może obejmować wszystkich możliwych przykładów, z którymi system może sobie poradzić w rzeczywistym świecie. Te systemy można oszukać w sposób, w jaki nie byliby ludzie. Na przykład losowe wzory kropek mogą sprawić, że maszyna „zobaczy” rzeczy, których nie ma. Jeśli polegamy na sztucznej inteligencji, aby wprowadzić nas w nowy świat pracy, bezpieczeństwa i wydajności, musimy upewnić się, że maszyna działa zgodnie z planem i że ludzie nie mogą jej obezwładnić, aby wykorzystać ją do własnych celów.

5. Rasistowskie roboty. Jak wyeliminować stronniczość AI?

Chociaż sztuczna inteligencja jest zdolna do szybkości i zdolności przetwarzania znacznie przekraczających ludzkie możliwości, nie zawsze można jej ufać, że jest uczciwa i neutralna. Google i jego firma macierzysta Alphabet są jednymi z liderów, jeśli chodzi o sztuczną inteligencję, jak widać w usłudze Zdjęcia Google, w której sztuczna inteligencja służy do identyfikacji osób, obiektów i scen. Ale może się nie udać, na przykład gdy kamera chybiła rasową wrażliwość lub gdy oprogramowanie używane do przewidywania przyszłych przestępców wykazywało uprzedzenia wobec czarnoskórych.

Nie powinniśmy zapominać, że systemy AI są tworzone przez ludzi, którzy mogą być stronniczy i oceniający. Po raz kolejny sztuczna inteligencja, jeśli jest właściwie stosowana lub używana przez tych, którzy dążą do postępu społecznego, może stać się katalizatorem pozytywnych zmian.

6. Bezpieczeństwo. Jak chronić sztuczną inteligencję przed przeciwnikami?

Im potężniejsza staje się technologia, tym więcej można jej użyć do nikczemnych powodów, a także pożytku. Dotyczy to nie tylko robotów produkowanych w celu zastąpienia ludzkich żołnierzy czy broni autonomicznej, ale także systemów sztucznej inteligencji, które mogą spowodować szkody, jeśli zostaną użyte złośliwie. Ponieważ te walki nie będą toczone tylko na polu bitwy, cyberbezpieczeństwo stanie się jeszcze ważniejsze. W końcu mamy do czynienia z systemem, który jest szybszy i sprawniejszy od nas o rzędy wielkości.

7. Złe dżiny. Jak chronimy się przed niezamierzonymi konsekwencjami?

Nie tylko o przeciwników musimy się martwić. A gdyby sama sztuczna inteligencja zwróciła się przeciwko nam? Nie oznacza to obracania się w „zła” w sposób, w jaki ludzkość może lub w sposób, w jaki katastrofy sztucznej inteligencji są przedstawiane w hollywoodzkich filmach. Możemy raczej wyobrazić sobie zaawansowany system sztucznej inteligencji jako „dżina w butelce”, który może spełniać życzenia, ale z straszliwymi nieprzewidzianymi konsekwencjami.

W przypadku maszyny jest mało prawdopodobne, aby w grę wchodziła złośliwość, jedynie brak zrozumienia pełnego kontekstu, w jakim życzenie zostało złożone. Wyobraź sobie system AI, który ma wyeliminować raka na świecie. Po wielu obliczeniach wypluwa formułę, która w rzeczywistości prowadzi do końca raka – zabijając wszystkich na planecie. Komputer bardzo skutecznie osiągnąłby swój cel „koniec z rakiem”, ale nie w sposób, w jaki ludzie tego sobie życzyli.

8. Osobliwość. Jak zachować kontrolę nad złożonym inteligentnym systemem?

Powodem, dla którego ludzie znajdują się na szczycie łańcucha pokarmowego, nie są ostre zęby czy silne mięśnie. Dominacja ludzka jest prawie całkowicie spowodowana naszą pomysłowością i inteligencją. Możemy pokonać większe, szybsze i silniejsze zwierzęta, ponieważ możemy tworzyć i wykorzystywać narzędzia do ich kontrolowania: zarówno narzędzia fizyczne, takie jak klatki i broń, jak i narzędzia poznawcze, takie jak trening i kondycjonowanie.

To stawia poważne pytanie o sztuczną inteligencję: czy pewnego dnia będzie miała nad nami taką samą przewagę? Nie możemy też polegać tylko na „wyciągnięciu wtyczki”, bo odpowiednio zaawansowana maszyna może przewidzieć ten ruch i się obronić. To właśnie niektórzy nazywają „osobliwością”: momentem, w którym ludzie przestają być najinteligentniejszymi istotami na ziemi.

9. Prawa robota. Jak definiujemy humanitarne traktowanie AI?

Podczas gdy neuronaukowcy wciąż pracują nad odkryciem sekretów świadomego doświadczenia, lepiej rozumiemy podstawowe mechanizmy nagrody i niechęci. Dzielimy się tymi mechanizmami nawet z prostymi zwierzętami. W pewnym sensie budujemy podobne mechanizmy nagradzania i niechęci w systemach sztucznej inteligencji. Na przykład uczenie się przez wzmacnianie jest podobne do szkolenia psa: lepsza wydajność jest wzmacniana wirtualną nagrodą.

Obecnie te systemy są dość powierzchowne, ale stają się coraz bardziej złożone i realistyczne. Czy możemy uznać, że system cierpi, gdy jego funkcje nagrody dają mu negatywny wkład? Co więcej, tak zwane algorytmy genetyczne działają poprzez tworzenie wielu instancji systemu na raz, z których tylko najbardziej udane „przetrwają” i łączą się, tworząc następną generację instancji. Dzieje się to przez wiele pokoleń i jest sposobem na ulepszenie systemu. Nieudane instancje są usuwane. W którym momencie możemy uznać algorytmy genetyczne za formę masowego morderstwa?

Kiedy uznamy maszyny za podmioty, które potrafią postrzegać, czuć i działać, nie jest to wielki skok, by zastanowić się nad ich statusem prawnym. Czy powinny być traktowane jak zwierzęta o porównywalnej inteligencji? Czy rozważymy cierpienie maszyn „czujących”?

Niektóre pytania etyczne dotyczą łagodzenia cierpienia, inne dotyczą ryzyka negatywnych skutków. Rozważając te zagrożenia, powinniśmy również pamiętać, że ogólnie rzecz biorąc, ten postęp technologiczny oznacza lepsze życie dla wszystkich. Sztuczna inteligencja ma ogromny potencjał, a jej odpowiedzialne wdrożenie zależy od nas.


7 sposobów, w jakie trudności z dzieciństwa zmieniają mózg dziecka

Liczba niekorzystnych doświadczeń z dzieciństwa, jakie dana osoba przewidziała, z zaskakującą dokładnością przewidziała ilość opieki medycznej, jakiej będzie potrzebowała jako osoba dorosła:

  • Osoby, które napotkały 4 lub więcej kategorii ACE, były dwukrotnie bardziej narażone na zdiagnozowanie raka niż osoby, które nie doświadczyły przeciwności z dzieciństwa.
  • Na każdy wynik ACE uzyskany przez kobietę ryzyko hospitalizacji z powodu choroby autoimmunologicznej wzrosło o 20%.
  • Osoba z wynikiem ACE 4 była o 460 procent bardziej podatna na depresję niż osoba z wynikiem ACE 0.
  • Wynik ACE większy lub równy 6 skrócił długość życia jednostki o prawie 20 lat.

Możesz wypełnić Kwestionariusz ACE tutaj, aby dowiedzieć się więcej o tym, jak zdobywasz punkty.

Badanie ACE mówi nam, że doświadczanie przewlekłego, nieprzewidywalnego stresu toksycznego w dzieciństwie predysponuje nas do konstelacji przewlekłych schorzeń w wieku dorosłym. Ale dlaczego? Dzisiaj, w laboratoriach w całym kraju, neuronaukowcy zaglądają do niegdyś nieodgadnionego połączenia mózg-ciało i analizują, na poziomie biochemicznym, dokładnie, jak stres, z którym mamy do czynienia, gdy jesteśmy młodzi, dopada nas, gdy jesteśmy dorośli. zmieniając nasze ciała, nasze komórki, a nawet nasze DNA. To, co znaleźli, może cię zaskoczyć.

Niektóre z tych odkryć naukowych mogą być nieco przytłaczające do rozważenia. Zmuszają nas do nowego spojrzenia na to, jak emocjonalny i fizyczny ból są ze sobą powiązane. (Aby dowiedzieć się więcej o tym, dlaczego napisałem o tym, jak ACE mogą zmienić sposób, w jaki postrzegamy choroby i jak zajmujemy się medycyną, obejrzyj ten film.)

[W części I tego artykułu porozmawiamy o nauce wczesnych przeciwności losu i o tym, jak nas one zmieniają. W części II omówimy wszystkie oparte na nauce sposoby, w jakie możemy: odwrócić te zmiany i wróćmy do tego, kim mamy nadzieję być, więc bądźcie czujni na dobre wieści.]

1. Zmiany epigenetyczne

Kiedy w dzieciństwie lub w okresie dojrzewania jesteśmy wielokrotnie wpychani w sytuacje wywołujące stres, nasza fizjologiczna reakcja na stres zmienia się w nadmierną dynamikę i tracimy zdolność odpowiedniego i skutecznego reagowania na przyszłe stresory – 10, 20, a nawet 30 lat później. Dzieje się tak dzięki procesowi znanemu jako metylacja genów, w którym małe markery chemiczne lub grupy metylowe przylegają do genów zaangażowanych w regulację naszej reakcji na stres i uniemożliwiają tym genom wykonywanie swoich zadań. Gdy funkcja tych genów ulega zmianie, reakcja na stres zostaje ponownie ustawiona na „wysoką” na całe życie, co sprzyja stanom zapalnym i chorobom.

To może sprawić, że będziemy bardziej skłonni do nadmiernej reakcji na stresujące codzienne sytuacje, które spotykamy w naszym dorosłym życiu – nieoczekiwany rachunek, nieporozumienie z małżonkiem lub samochód, który skręca przed nami na autostradzie i powoduje więcej stanów zapalnych. To z kolei predysponuje nas do wielu przewlekłych schorzeń, w tym chorób autoimmunologicznych, chorób serca, raka i depresji.

Rzeczywiście, naukowcy z Yale odkryli niedawno, że dzieci, które zmagały się z przewlekłym stresem toksycznym, wykazywały zmiany „w całym genomie” w genach, które nie tylko nadzorują reakcję na stres, ale także w genach związanych z szeroką gamą chorób dorosłych. Te nowe badania nad wczesną traumą emocjonalną, zmianami epigenetycznymi i chorobami fizycznymi dorosłych przełamują długotrwałe bariery między tym, co społeczność medyczna od dawna postrzega jako chorobę „fizyczną”, a tym, co jest „mentalne” lub „emocjonalne”.

2. Rozmiar i kształt mózgu

Naukowcy odkryli, że kiedy rozwijający się mózg jest przewlekle obciążony, uwalnia hormon, który faktycznie zmniejsza rozmiar hipokampu, obszaru naszego mózgu odpowiedzialnego za przetwarzanie emocji i pamięć oraz zarządzanie stresem. Ostatnie badania rezonansu magnetycznego (MRI) sugerują, że im wyższy wynik ACE danej osoby, tym mniej istoty szarej ma w innych kluczowych obszarach mózgu, w tym w korze przedczołowej, obszarze związanym z podejmowaniem decyzji i umiejętnościami samoregulacji i ciało migdałowate, czyli ośrodek przetwarzania strachu. Dzieci, których mózgi zostały zmienione w wyniku niekorzystnych doświadczeń z dzieciństwa, częściej stają się dorosłymi, którzy reagują nadmiernie nawet na drobne stresory.

3. Przycinanie neuronowe

Dzieci mają nadmiar neuronów i połączeń synaptycznych, ich mózgi ciężko pracują, próbując zrozumieć otaczający je świat. Do niedawna naukowcy wierzyli, że przycinanie nadmiaru neuronów i połączeń odbywało się wyłącznie w sposób „wykorzystaj lub strać”, ale na scenie pojawił się zaskakujący nowy gracz w rozwoju mózgu. Nieneuronowe komórki mózgowe – znane jako mikroglej, które stanowią jedną dziesiątą wszystkich komórek w mózgu i są w rzeczywistości częścią układu odpornościowego – uczestniczą w procesie przycinania. Te komórki przycinają synapsy tak, jak ogrodnik przycina żywopłot. Pochłaniają również i trawią całe komórki i szczątki komórkowe, odgrywając w ten sposób istotną rolę w utrzymaniu porządku.

Ale kiedy dziecko staje w obliczu nieprzewidywalnego, przewlekłego stresu związanego z niekorzystnymi doświadczeniami z dzieciństwa, komórki mikrogleju „mogą się naprawdę rozbudzić i wyprodukować neurochemikalia, które prowadzą do zapalenia układu nerwowego”, mówi dr Margaret McCarthy, której zespół badawczy z University of Maryland Medical Center bada rozwijające się mózg. „Ten poniżej radaru stan przewlekłego zapalenia nerwów może prowadzić do zmian, które przywracają ton mózgu na całe życie”.

Oznacza to, że dzieci, które wkraczają w wiek dojrzewania z historią przeciwności losu i brakiem stałego, kochającego dorosłego, który by im pomógł, mogą być bardziej podatne na zaburzenia nastroju lub mają słabe funkcje wykonawcze i umiejętności podejmowania decyzji.

4. Telomery

Wczesna trauma może sprawić, że dzieci będą wydawały się „starsze” emocjonalnie niż ich rówieśnicy. Teraz naukowcy z Duke University, University of California, San Francisco i Brown University odkryli, że niekorzystne doświadczenia z dzieciństwa mogą również przedwcześnie postarzać dzieci na poziomie komórkowym. Dorośli, którzy doświadczyli wczesnego urazu, wykazują większą erozję w tak zwanych telomerach – ochronnych nasadkach, które znajdują się na końcach nici DNA, takich jak nasadki na sznurowadłach, aby zachować zdrowy i nienaruszony genom. Ponieważ nasze telomery ulegają erozji, istnieje większe prawdopodobieństwo rozwoju choroby, a nasze komórki starzeją się szybciej.


Stworzono udaną sztuczną pamięć

Uczymy się z naszej osobistej interakcji ze światem, a nasze wspomnienia tych doświadczeń pomagają kierować naszymi zachowaniami. Doświadczenie i pamięć są nierozerwalnie związane, a przynajmniej wydawały się być przed niedawnym doniesieniem o powstawaniu całkowicie sztucznych wspomnień. Wykorzystując zwierzęta laboratoryjne, badacze dokonali inżynierii wstecznej określonej pamięci naturalnej, mapując obwody mózgu leżące u podstaw jej powstawania. Następnie „przeszkolili” inne zwierzę, stymulując komórki mózgowe zgodnie z wzorcem naturalnej pamięci. W ten sposób powstała sztuczna pamięć, która była zachowywana i przywoływana w sposób nieodróżnialny od naturalnej.

Wspomnienia są niezbędne dla poczucia tożsamości, które wyłania się z narracji osobistego doświadczenia. To badanie jest niezwykłe, ponieważ pokazuje, że manipulując określonymi obwodami w mózgu, wspomnienia można oddzielić od tej narracji i uformować przy całkowitym braku prawdziwego doświadczenia. Praca pokazuje, że obwody mózgowe, które normalnie reagują na określone doświadczenia, mogą być sztucznie stymulowane i łączone w sztuczną pamięć. Ta pamięć może być wywołana przez odpowiednie sygnały sensoryczne w rzeczywistym środowisku. Badania dostarczają fundamentalnego zrozumienia tego, w jaki sposób wspomnienia powstają w mózgu i są częścią rozwijającej się nauki o manipulacji pamięcią, która obejmuje transfer, wzmocnienie protetyczne i wymazywanie pamięci. Wysiłki te mogą mieć ogromny wpływ na wiele osób, od tych zmagających się z zaburzeniami pamięci po osoby z traumatycznymi wspomnieniami, a także mają szerokie implikacje społeczne i etyczne.

W niedawnym badaniu pamięć naturalna została utworzona przez trenowanie myszy, aby kojarzyły specyficzny zapach (kwiaty wiśni) ze wstrząsem stopy, czego nauczyły się unikać, przekazując prostokątną komorę testową do innego końca, który był nasycony innym zapachem ( Kminek). Zapach kminku pochodzi od substancji chemicznej zwanej karwon, podczas gdy zapach kwiatu wiśni pochodzi od innej substancji chemicznej, acetofenonu. Naukowcy odkryli, że acetofenon aktywuje określony typ receptora na dyskretnym typie węchowej komórki nerwu czuciowego.

Następnie zwrócili się do zaawansowanej techniki, optogenetyki, aby aktywować te komórki nerwów węchowych. W optogenetyce białka światłoczułe są wykorzystywane do stymulowania określonych neuronów w odpowiedzi na światło dostarczane do mózgu przez chirurgicznie wszczepione włókna światłowodowe. W swoich pierwszych eksperymentach naukowcy wykorzystali zwierzęta transgeniczne, które wytwarzały białko tylko w nerwach węchowych wrażliwych na acetofenon. Łącząc elektryczny wstrząs stopy z optogenetyczną stymulacją światłem nerwów węchowych wrażliwych na acetofenon, naukowcy nauczyli zwierzęta kojarzyć wstrząs z aktywnością tych specyficznych nerwów czuciowych wrażliwych na acetofenon. Łącząc elektryczny wstrząs stóp z optogeniczną stymulacją światłem nerwów węchowych wrażliwych na acetofenon, naukowcy nauczyli zwierzęta kojarzyć te dwa elementy. Kiedy później przetestowali myszy, uniknęli zapachu kwiatu wiśni.

Te pierwsze kroki pokazały, że zwierzęta nie musiały odczuwać zapachu, aby zapamiętać związek między tym zapachem a szkodliwym wstrząsem stopy. Ale to nie było całkowicie sztuczne wspomnienie, bo szok był nadal całkiem realny. Aby skonstruować całkowicie sztuczną pamięć, naukowcy musieli stymulować mózg w taki sposób, aby naśladować również aktywność nerwową wywołaną wstrząsem stopy.

Wcześniejsze badania wykazały, że określone ścieżki nerwowe prowadzące do struktury zwanej brzusznym obszarem nakrywkowym (VTA) są ważne dla awersyjnego charakteru wstrząsu stopy. Aby stworzyć naprawdę sztuczną pamięć, naukowcy musieli stymulować VTA w taki sam sposób, w jaki stymulowali nerwy czuciowe węchowe, ale transgeniczne zwierzęta wytwarzały tylko światłoczułe białka w tych nerwach. Aby zastosować stymulację optogenetyczną, stymulowali nerwy węchowe u tych samych genetycznie zmodyfikowanych myszy, a także zastosowali wirusa do umieszczenia w VTA białek wrażliwych na światło. Pobudzali receptory węchowe światłem, aby symulować zapach kwiatów wiśni, a następnie stymulowali VTA, aby naśladować nieprzyjemny wstrząs stopy. Zwierzęta przywołały sztuczną pamięć, reagując na zapach, którego nigdy nie napotkały, unikając szoku, którego nigdy nie doznały.

Przez długi czas zagadką było, w jaki sposób w mózgu powstają wspomnienia i jakie fizyczne zmiany w mózgu towarzyszą ich powstawaniu. W tym badaniu stymulacja elektryczna określonych regionów mózgu, która doprowadziła do powstania nowej pamięci, aktywowała również inne regiony mózgu, o których wiadomo, że biorą udział w tworzeniu pamięci, w tym obszar zwany ciałem migdałowatym podstawno-bocznym. Ponieważ komórki nerwowe komunikują się ze sobą poprzez połączenia zwane synapsami, założono, że zmiany w aktywności synaptycznej odpowiadają za powstawanie wspomnień. U prostych zwierząt, takich jak ślimak morski Aplysia, wspomnienia mogą być przenoszone z jednej osoby na drugą za pomocą RNA wyekstrahowanego od osoby, która ich doświadczyła. RNA zawiera kody białek wytwarzanych w nerwach zwierzęcia związanych z pamięcią. Wspomnienia zostały częściowo przeniesione na gryzonie za pomocą nagrań aktywności elektrycznej wyszkolonego ośrodka pamięci zwierzęcia (hipokamp) w celu stymulowania podobnych wzorców aktywności nerwów u zwierzęcia biorcy. Proces ten jest podobny do nowego raportu opisanego tutaj, ponieważ stymulowanie aktywności elektrycznej określonych obwodów neuronowych służy do wywołania pamięci. W przypadku transferu pamięci ten wzorzec pochodził od wytresowanych zwierząt, podczas gdy w badaniu optogenetycznym wzorzec aktywności elektrycznej związany z pamięcią został zbudowany de novo w mózgu myszy. Jest to pierwszy raport o całkowicie sztucznej pamięci i pomaga ustalić podstawowe zrozumienie tego, w jaki sposób można manipulować wspomnieniami.

Badania nad pamięcią i próby manipulowania nią postępują w szybkim tempie. Przy wsparciu Agencji Zaawansowanych Projektów Badawczych Obrony (DARPA) opracowano „protezę bdquomemory” zaprojektowaną w celu zwiększenia jej tworzenia i przypominania poprzez stymulację elektryczną ośrodka pamięci w ludzkim mózgu. W przeciwieństwie do tego, wymazywanie pamięci za pomocą tego, co zostało nazwane Wieczne Słońce lek (peptyd hamujący zeta lub ZIP) &mdashafter Wieczne Słońce Nieskazitelnego Umysłu, hollywoodzki film z motywem mnemonicznym &mdashis opracowywany w celu leczenia wspomnień o chronicznym bólu.

Istnieją uzasadnione motywy leżące u podstaw tych wysiłków. Pamięć została nazwana „skrybą duszy” i jest źródłem osobistej historii. Niektórzy ludzie mogą dążyć do odzyskania utraconych lub częściowo utraconych wspomnień. Inni, na przykład cierpiący na zespół stresu pourazowego lub przewlekły ból, mogą szukać ulgi w traumatycznych wspomnieniach, próbując je wymazać.

Metody stosowane tutaj do tworzenia sztucznych wspomnień nie będą w najbliższym czasie stosowane u ludzi: nikt z nas nie jest transgeniczny jak zwierzęta użyte w eksperymencie, nie zaakceptujemy też wielu wszczepionych kabli światłowodowych i zastrzyków wirusowych. Niemniej jednak, wraz z rozwojem technologii i strategii, możliwość manipulowania ludzkimi wspomnieniami staje się jeszcze bardziej realna. A zaangażowanie agencji wojskowych, takich jak DARPA, niezmiennie sprawia, że ​​motywy tych wysiłków są podejrzane. Czy są rzeczy, których wszyscy musimy się bać lub których musimy lub nie możemy robić? Możliwości dystopijne są oczywiste.

Tworzenie sztucznych wspomnień przybliża nas do uczenia się, jak powstają wspomnienia i może ostatecznie pomóc nam zrozumieć i leczyć straszne choroby, takie jak choroba Alzheimera. Wspomnienia jednak sięgają sedna naszego człowieczeństwa i musimy być czujni, aby do wszelkich manipulacji podchodzić etycznie.


Modele nienadzorowanej, opartej na korelacji (hebbowskiej) plastyczności synaps są zazwyczaj niestabilne: albo wszystkie synapsy rosną, aż każda z nich osiągnie maksymalną dozwoloną siłę, albo wszystkie synapsy zanikają do zera. Powszechną metodą unikania tych wyników jest użycie ograniczenia, które chroni lub ogranicza całkowitą siłę synaptyczną w komórce. Badamy dynamiczne skutki takich ograniczeń.

Rozróżnia się dwie metody wymuszania ograniczenia, multiplikatywną i subtraktywną. W przypadku inaczej liniowych reguł uczenia się, multiplikatywne wymuszenie ograniczenia skutkuje dynamiką, która zbiega się z głównym wektorem własnym operatora określającego nieograniczony rozwój synaptyczny. Natomiast wymuszanie subtraktywne zazwyczaj prowadzi do stanu końcowego, w którym prawie wszystkie siły synaptyczne osiągają maksymalną lub minimalną dozwoloną wartość. Ten stan końcowy jest często zdominowany przez konfiguracje wag inne niż główny wektor własny operatora nieograniczonego. Wymuszanie multiplikatywne daje „stopniowane” pole receptywne, w którym reprezentowana jest większość wzajemnie skorelowanych danych wejściowych, podczas gdy egzekwowanie subtraktywne daje pole receptywne, które jest „wyostrzone” do podzbioru maksymalnie skorelowanych danych wejściowych. Jeśli dwie równoważne populacje wejściowe (np. dwoje oczu) unerwiają wspólny cel, multiplikatywne egzekwowanie zapobiega ich segregacji (segregacji dominacji oczu), gdy obie populacje są słabo skorelowane, podczas gdy egzekwowanie subtraktywne umożliwia segregację w tych okolicznościach.

Wyniki te można wykorzystać do zrozumienia ograniczeń zarówno dotyczących komórek wyjściowych, jak i komórek wejściowych. Omówiono różne reguły, które mogą implementować ograniczoną dynamikę.


Obietnice i wyzwania

Sztuczne nerwy czuciowe, które mogą odczuwać nacisk i stykać się z biologicznymi mięśniami, stanowią ważny krok w kierunku pomocy osobom żyjącym z protezami kończyn w odzyskaniu utraconych wrażeń. Mogą nawet pewnego dnia dać robotom sztuczną skórę, która wyczuwa i reaguje na otoczenie. Jednak w obecnym stanie sztuczny nerw wciąż nie ma wszystkich odczuć prawdziwej skóry. W szczególności obecny sztuczny nerw może generować jedynie sygnały podobne do neuronów w odpowiedzi na nacisk, podczas gdy prawdziwa skóra może również odczuwać wibracje, teksturę, temperaturę, ból i swędzenie. Ponadto okaże się, czy ludzki mózg potrafi przetwarzać sygnały ze sztucznych nerwów, co jest kluczem do przywrócenia utraconych wrażeń dotykowych. Przyszły rozwój tej techniki ma na celu włączenie różnych typów czujników i zbadanie interfejsu ludzkiego mózgu, być może ostatecznie wprowadzając cyborgi do prawdziwego życia.


Wielkość i wartość rynku biologii syntetycznej

Rynek biologii syntetycznej jest wyceniany na 3,99 mld USD w 2018 r. i oczekuje się, że osiągnie 23,98 mld USD do 2025 r., przy CAGR wynoszącym 29,2% w okresie prognozy.

Biologia syntetyczna to dziedzina nauki, która polega na przeprojektowywaniu organizmów do użytecznych celów za pomocą techniki inżynierskiej w celu wytworzenia nowych zdolności. Biologia syntetyczna to sposób na wykorzystanie siły natury do rozwiązywania problemów w medycynie, produkcji i rolnictwie dla naukowców i firm na całym świecie. Mikroorganizmy wykorzystywane do bioremediacji w celu oczyszczenia wody, gleby i powietrza z zanieczyszczeń.

Dziedzina nauki, która obejmuje szeroki zakres metodologii z różnych sektorów, w tym biotechnologii, inżynierii komputerowej, kontroli i inżynierii biologicznej, inżynierii genetycznej, biologii molekularnej, inżynierii molekularnej, biologii systemów, nauki o membranach, biofizyki i biologii ewolucyjnej. W biologii syntetycznej naukowcy i lekarze łączą ze sobą długie odcinki DNA i wstawiają je do genomu organizmu. Podczas szycia naukowcy zazwyczaj używają narzędzi do wprowadzania mniejszych zmian we własnym DNA organizmu. Narzędzia do edycji genomu mogą być również używane do usuwania i dodawania małych odcinków DNA. Drożdże z syntetycznej biologii mogą być tak zaprojektowane, aby produkować olejek różany jako zrównoważony i przyjazny dla środowiska substytut prawdziwych róż, których perfumiarze używają do tworzenia luksusowych zapachów podczas produkcji naturalnych perfum.

Globalny rynek biologii syntetycznej jest podzielony na segmenty pod względem typu produktu, technologii, zastosowania i regionu. W oparciu o typ produktu globalny rynek biologii syntetycznej jest podzielony na geny syntetyczne, oligonukleotydy, narzędzia programowe, syntetyczne DNA, komórki syntetyczne i organizmy podwozia. W oparciu o technologię globalny rynek biologii syntetycznej jest podzielony na inżynierię genetyczną, bioinformatykę, mikrofluidykę i inne. W oparciu o aplikację światowy rynek biologii syntetycznej jest podzielony na segmenty farmaceutyczne i diagnostykę, rolnictwo, chemikalia, biopaliwa, biotworzywa, opiekę zdrowotną i inne.

Regiony objęte globalnym raportem o rynku biologii syntetycznej to Ameryka Północna, Europa, Azja i Pacyfik oraz reszta świata. Na podstawie poziomu kraju globalny rynek biologii syntetycznej podzielony na USA, Meksyk, Kanadę, Wielką Brytanię, Francję, Niemcy, Włochy, Chiny, Japonię, Indie, Azję Południowo-Wschodnią, GCC, Afrykę itp.


Niektóre prace Brain zaakceptowane do NeurIPS, 2019

Większość stochastycznych metod optymalizacji wykorzystuje gradienty raz przed ich odrzuceniem. While variance reduction methods have shown that reusing past gradients can be beneficial when there is a finite number of datapoints, they do not easily extend to the online setting. One issue is the staleness due to using past gradients. We propose to correct this staleness using the idea of

Sebastien Arnold , Pierre-Antoine Manzagol , Reza Babanezhad , Ioannis Mitliagkas , Nicolas Le Roux

NeurIPS 2019 (2019) (to appear)

We study differentially private (DP) algorithms for stochastic convex optimization (SCO). In this problem the goal is to approximately minimize the population loss given i.i.d. samples from a distribution over convex and Lipschitz loss functions. A long line of existing work on private convex optimization focuses on the empirical loss and derives asymptotically tight bounds on the excess.

Raef Bassily , Vitaly Feldman , Kunal Talwar , Abhradeep Guha Thakurta

NeurIPS Spotlight (2019) (to appear)

The goal of this paper is to design image classification systems that, after an initial multi-task training phase, can automatically adapt to new tasks encountered at test time. We introduce a conditional neural process based approach to the multi-task classification setting for this purpose, and establish connections to the meta- and few-shot learning literature. The resulting approach, called.

James Requeima , Jonathan Gordon , John Bronskill , Sebastian Nowozin , Richard E. Turner

NeurIPS Spotlight (2019) (to appear)

Many recent studies have employed task-based modeling with recurrent neural networks (RNNs) to infer the computational function of different brain regions. These models are often assessed by quantitatively comparing the low-dimensional neural dynamics of the model and the brain, for example using canonical correlation analysis (CCA). However, the nature of the detailed neurobiological.

Niru Maheswaranathan , Alex Williams , Matthew Golub , Surya Ganguli , David Sussillo

NeurIPS Spotlight (2019) (to appear)

The generalization and learning speed of a multi-class neural network can often be significantly improved by using soft targets that are a weighted average of the hard targets and the uniform distribution over labels. Smoothing the labels in this way prevents the network from becoming over-confident and label smoothing has been used in many state-of-the-art models, including image.

NeurIPS Spotlight (2019) (to appear)

Sorting is used pervasively in machine learning, either to define elementary algorithms, such as k-nearest neighbors (k-NN) rules, or to define test-time metrics, such as top-k classification accuracy or ranking losses. Sorting is however a poor match for the end-to-end, automatically differentiable pipelines of deep learning. Indeed, sorting procedures output two vectors, neither of which is.

Advances in Neural Information Processing Systems (NeurIPS) 32 , Curran Associates, Inc. (2019) , pp. 6861-6871

In many real-world reinforcement learning applications, access to the environment is limited to a fixed dataset, instead of direct (online) interaction with the environment. When using this data for either evaluation or training of a new policy, accurate estimates of discounted stationary distribution ratios -- correction terms which quantify the likelihood that the new policy will experience a.


Brain and Cognitive Sciences


The human brain is the most complex, sophisticated, and powerful information-processing device known.

To study its complexities, the Department of Brain and Cognitive Sciences at the Massachusetts Institute of Technology combines the experimental technologies of neurobiology, neuroscience, and psychology, with the theoretical power that comes from the fields of computational neuroscience and cognitive science.

The Department was founded by Hans-Lukas Teuber in 1964 as a Department of Psychology, with the then-radical vision that the study of brain and mind are inseparable. Today, at a time of increasing specialization and fragmentation, our goal remains to understand cognition- its processes, and its mechanisms at the level of molecules, neurons, networks of neurons, and cognitive modules. We are unique among neuroscience and cognitive science departments in our breadth, and in the scope of our ambition. We span a very large range of inquiry into the brain and mind, and our work bridges many different levels of analysis including molecular, cellular, systems, computational and cognitive approaches.

Since the field of brain and cognitive sciences is relatively young and extremely dynamic, there is no single text that encompasses the subject matter covered in most of the classes offered by the department. To educate and train future scientists, readings are from primary journal articles or research papers. This approach provides broad coverage, as well as the depth needed, so that students are exposed to cutting-edge knowledge in the various specialties of neuroscience and cognitive science. Browsing the course materials in MIT OpenCourseWare, the jewels are revealed in the detailed reading lists that provide a window on the current thinking in each subject.

Central to our mission is the training of graduate students in the brain and cognitive sciences, and the education of undergraduate students. Our graduate students benefit from the comprehensiveness of our program as well as by conducting research with individual faculty members who are on the cutting edge of their fields. The Department recently expanded its undergraduate program to include both neuroscience and cognitive science and our major is now one of the fastest growing in the institute.

In addition to the Brain and Cognitive Sciences courses listed below, see also OCW&rsquos Supplemental Resources associated with the department.


1. The Past

Google’s Ngram Viewer (Michel et al., 2011) allows users to search the relative frequency of n-grams (short-words combinations, n ≤ 5) in time, exploiting the large database of Google Books that includes about 4% of all books ever written. Hiroki Sayama did a search for 𠇊rtificial life” 1 , and the curve showed how the frequency jumps from 1986 and reaches a peak in 1997 before stabilizing. However, there is an even higher peak around 1821. “What were they doing in those days?” Hiroki tweeted. Well, Frankenstein, or The Modern Prometheus by Mary Shelley was published in 1818. That created a wave in literature until the end of the 1820s and had an impact for the rest of the nineteenth century, as people debated on the nature of life in view of the impressive technological and scientific advances of the age. What are the causes and conditions of life? Can we make living creatures?

We know that such questions were asked from the dawn of history. Consider, for instance, the artificial creatures found in the Greek, Mayan, Chinese, and Jewish mythologies, where human beings acquire the divine ability to make living creatures through magic. Other examples can be found during the middle ages, such as the automata created by al-Jazari (including the first programmable humanoid robot) and the legendary Albertus Magnus’ brazen head (an automaton reputed to be able to answer any question) and its mechanical servant (which advanced to the door when anyone knocked and then opened it and saluted the visitor). Later on, during the Italian Renaissance, several automata were designed (Mazlish, 1995). Leonardo da Vinci’s mechanical knight (a humanoid that could stand, sit, raise its visor and independently maneuver its arms) and its mechanical lion (which could walk forward and open its chest to reveal a cluster of lilies) are just two examples of this kind of automata. There is also a legend that says that Juanelo Turriano created an automata called “The Stick Man.” It begged in the streets, and when someone gave him a coin, he bowed. Through the modern age, automata became more and more sophisticated, based on and leading to advances in clockwork and engineering (Wood, 2002). Perhaps the most impressive of this period were the automata of Vaucanson. His first workshop was destroyed because the androids he wanted to build were considered profane. He later built a duck, which appeared to eat, drink, digest, and defecate. Other examples of modern automata are those created by Pierre Jaquet-Droz: the writer (made of 2500 pieces), the musician (made of 2500 pieces), and the draughtsman (made of 2000 pieces).

Questions related to the nature and purpose of life have been central to philosophy, and the quest of creating life has been present for centuries (Ball, 2011). Being able to imitate life with automata, can we understand better what makes the living alive? Hobbes (1651, p. 1) begins his Leviathan with:

Nature (the art whereby God hath made and governs the world) is by the art of man, as in many other things, so in this also imitated that it can make an artificial animal. For seeing life is but a motion of limbs, the beginning whereof is in some principal part within, why may we not say that all automata (engines that move themselves by springs and wheels as doth a watch) have an artificial life? [our emphasis]

Descartes also considered the living as being mechanical: life being similar to a clockwork (Descartes, 1677). Still, Descartes did not consider the soul to be mechanical, leading to dualism.

Nevertheless, in spite of these many antecedents, it is commonly accepted [see, for example, Bedau (2003)] that it was not until 1951 that the first formal artificial life (ALife) model was created, when von Neumann (1951) was trying to understand the fundamental properties of living systems. In particular, he was interested in self-replication, a fundamental feature of life. Collaborating with Stanislaw Ulam at Los Alamos National Laboratory, von Neumann defined the concept of cellular automata and proposed a self-replicating formal system, which was aimed at being computationally universal (Turing, 1936) and capable of open-ended evolution (von Neumann, 1966 Mange et al., 2004). Simpler alternatives to von Neumann’s “universal constructor” were later proposed by Codd (Hutton, 2010) and Banks (1971). Langton (1984) then proposed simpler self-replicating “loops,” based on Codd’s ideas but without universality 2 . Popularization and further development of cellular automata continued in the 1970s and 1980s, the best known examples being Conway’s Game of Life (Berlekamp et al., 1982), and Wolfram’s elementary cellular automata (Wolfram, 1983). A contemporary of von Neumann, Barricelli (1963) developed computational models similar to cellular automata, although focusing on evolution.

In parallel to these studies by von Neumann and others, cybernetics studied control and communication in systems (Wiener, 1948 Gershenson et al., 2014). Cybernetics and systems research described phenomena in terms of their function rather than their substrate, so similar principles were applied to animals and machines alike. Langton (1984) suggested that life should be studied as property of form, not matter. This resonates with the cybernetic approach, so it can be said that ALife has strong roots in cybernetics. Moreover, central concepts such as homeostasis (Ashby, 1947a, 1960 Williams, 2006) and autopoiesis (Varela et al., 1974 Maturana and Varela, 1980) were developed within and inspired by cybernetics (Froese and Stewart, 2010). A couple of examples, Walter (1950, 1951) built robotic “tortoises” (Holland, 1997), which can be classified as early examples of adaptive robotics. In the 1960s, Beer (1966) developed a model for organizations based on the principles of living systems. Beer’s ideas were implemented in Chile during the Cybersyn project (Miller Medina, 2005) in the early 1970s.

It is clear that life does not depend only on its substrate. Take, for example, Kauffman’s blender thought experiment (Kauffman, 2000): imagine you take the biosphere, place it in a giant blender, and press MAX. For some time, you would have the same molecular diversity. However, without its organization, the complex molecules of the biosphere would soon decay and their diversity would be lost. Living systems organize flows of matter, energy, and information to sustain themselves. Life cannot be studied without considering this organization, as one cannot distinguish molecules, which are part of a living organization from those that are not. There have been several advances, but there is still much to discover about the realm of the living.

ALife has been closely related to artificial intelligence (AI), since some of their subjects overlap. As Bedau (2003, p. 597) stated: “living and flourishing in a changing and uncertain environment requires at least rudimentary intelligence.” However, the former is particularly focused on systems, which can mimic nature and its laws and therefore it is more related to biology, while the latter is mainly focused on how human intelligence can be replicated, and therefore, it is more related to psychology. Moreover, they differ in their modeling strategies. On the one hand, most traditional AI models are top-down specific systems involving a complicated, centralized controller that makes decisions based on access to all aspects of global state. On the other hand, ALife systems are typically bottom-up (Maes, 1993), implemented as low-level agents that simultaneously interact with each other, and whose decisions are based on information about, and directly affect, only their own local environment (Bedau, 2003).

The research around these topics continued until 1987, the year in which Langton organized the first Workshop on the Synthesis and Simulation of Living Systems in Santa Fe, New Mexico, where the term 𠇊rtificial life” was coined in its current usage. The event marked the official birth of the field. Incidentally, the scientific study of complex systems (Gershenson, 2008) also initiated roughly at the same time in the same place, the Santa Fe Institute.

Figure 1 summarizes the “prehistory” of ALife, which begins with the ancient myths and stories and finishes with the formal creation of this area of research.

Figure 1. Summary of the historical roots of artificial life, from its precedents in the ancient myths and stories to the formal creation of this area of research.