Informacja

Statystyki: W jaki sposób gatunki białek są rozmieszczone w typach komórek?

Statystyki: W jaki sposób gatunki białek są rozmieszczone w typach komórek?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

W ludzkim proteomie jest około 10 000 do 20 000 gatunków białek (chociaż widziałem również liczby od 500 000 do 1 000 000). Ponadto w ludzkim ciele występuje około 200 różnych typów komórek. Moje pytanie brzmi:

W jaki sposób gatunki białek są rozmieszczone w typach komórek?

Oznacza to w szczególności:

Ile białek jest wyrażanych przez n typy komórek?

Ile typów komórek wyraża? n białka?

Prawdopodobnie te liczby nie są dokładnie znane, ponieważ nie wszystkie białka mogą być znane z ekspresji danego typu komórki.

Ale mogą istnieć dowody, jaki ogólny kształt mają obie krzywe rozkładu. Czy są to dystrybucje Poissona i wyglądają bardziej tak?

Albo to?

Albo to?

Lub inny rodzaj dystrybucji, np. Gauss czy nawet multimodalny?


Z moich wyszukiwań nie ma jednego zasobu zawierającego atlas wszystko ludzkie białka produkowane w poprzek wszystko typy komórek ludzkich. Jednak istnieje kilka ostatnich badań spektrometrii mas, które dotyczą proteomów z rozdzielonym typem komórki dla konkretnych tkanek ludzkich i mysich, które dostarczają pewnego wglądu w rozmieszczenie białek w różnych komórkach.

Proteom wątroby typu komórkowego

To badanie zidentyfikowało między 6200 a 8500 mysz produkty genów w każdym z czterech typów komórek – hepatocytach, komórkach gwiaździstych wątroby, komórkach Kupffera i komórkach śródbłonka zatok wątrobowych – oraz łącznie 10 075 produktów genów we wszystkich czterech typach komórek. Figura 1D pokazuje, że proteomy w znacznym stopniu nakładają się na siebie; 5246 białek (52,1%) jest wspólnych dla wszystkich czterech typów komórek, a tylko 1451 białek (14,4%) jest wyłącznych dla komórek w tym zestawie. Oprócz białek rezydujących w komórkach autorzy donoszą również o białkach sekrecyjnych, unikalnych dla hepatocytów i komórek Kupffera. Wyniki te w dużej mierze potwierdzają wcześniejszą publikację, Ilościowa proteomika wątroby mysiej według typu komórkowego, gdzie autorzy stwierdzili, że 8 338 z 11 520 (72,4%) białek było wspólnych dla pięciu badanych typów komórek wątroby.

Proteom mózgu myszy z rozdzielczością typu komórki i regionu mózgu

W badaniu tym przyjrzano się czterem typom izolowanych neuronów z określonych regionów mysz mózg, a także pięć typów pierwotnych hodowanych neuronów. Spośród 13 061 wszystkich białek, 10 529 (80,6%) jest wspólnych dla pięciu badanych typów komórek, a tylko 194 (1,4%) jest unikalnych dla pojedynczego typu komórek. Rysunek 2D jasno pokazuje, że białko obfitość między typami komórek - nie tylko binarna obecność/brak - jest ważna dla tożsamości komórki. (Więcej na ten temat poniżej…)

Ilościowa mapa proteomiczna ludzkiego serca z rozdzielczością regionu i typu komórki

Sięgając do białek ludzkich wymienionych w pytaniu, w niniejszej publikacji przeanalizowano trzy typy komórek serca i fibroblasty tkanki tłuszczowej w 16 regionach anatomicznych, dając przestrzenne i funkcjonalne perspektywy na rozmieszczenie typów białek w człowiek serce. Rycina 5A, podobnie jak Rycina 1D dla biuletynu o proteomie wątroby myszy, pokazuje dużą ilość nakładających się białek między typami komórek: z 11 163 całkowitych białek 7965 (71,4%) jest wspólnych dla wszystkich typów komórek (w tym fibroblastów tkanki tłuszczowej) i 617 ( 5,5%) są unikalne dla jednego typu komórki. Co ciekawe i być może nie zaskakujące, podzbiory białek unikalnych dla określonych komórek są wzbogacone o markery powierzchniowe komórek. (Związane z:Ludzki powierzchniowy in silico)

Architektura sieci społecznościowych ludzkich komórek odpornościowych ujawniona przez proteomikę ilościową

Autorzy ci zidentyfikowali ponad 10 000 różnych białek w 28 podstawowych człowiek populacje komórek krwiotwórczych, z trzema lub czterema replikacjami biologicznymi na typ komórki, w tym 17 różnych typów komórek odpornościowych. Zidentyfikowali średnio 9500 białek na typ komórki, a dla komórek odpornościowych wygenerowali zarówno proteomy „stanu ustalonego”, jak i „aktywowanego”, dając wgląd w to, jak proteom zmienia oba przez typy komórek i w ciągu każdy typ między stanami.

Aby bezpośrednio odpowiedzieć na Twoje pytanie,

W jaki sposób gatunki białek są rozmieszczone w typach komórek?

Wziąłem dane z Tabeli Uzupełniającej 6, uśredniłem powtórzenia, przekonwertowałem wartości liczby kopii białka do binarnej macierzy obecności/nieobecności i obliczyłem liczbę typów komórek odpornościowych (1 - 17) reprezentowanych przez każdy unikalny identyfikator białka. Wstawkowy wykres łączy etykiety typu komórki i stanu aktywacji, aby zapytać, czy efekt aktywacji dominuje nad różnicami typu komórki w dywergencji proteomu.

Obecność/nieobecność, brak progu - Unikalna dystrybucja białka w 17 podstawowych typach komórek odpornościowych. Białko jest uważane za „obecne” w typie komórki, jeśli średnia wartość liczby kopii jest większa od zera. Dane Rieckmanna i inni. Nat Immunol. 2017.

Ponieważ wywnioskowane liczby kopii białka z danych spektrometrii mas obejmują wysoki zakres dynamiczny, przyjrzałem się również rozmieszczeniu białek, które miały średnią liczbę kopii co najmniej dwukrotnie większą od zubożonej o zero mediany liczby kopii specyficznej dla typu komórki .

Białka o dużej obfitości - Unikalna dystrybucja białka w 17 podstawowych typach komórek odpornościowych. Pary białko-komórka są liczone tylko wtedy, gdy średnia liczba kopii białka jest co najmniej dwukrotnością mediany liczby kopii białka dla każdego typu komórki. Dane Rieckmanna i inni. Nat Immunol. 2017.

Podsumowując, te rozkłady sugerują kilka rzeczy:

  • w przypadku tego zróżnicowanego zestawu komórek odpornościowych większość białek jest obecna we wszystkich typach komórek, patrząc na ścisłe dane dotyczące obecności/nieobecności
  • po podzbiorze dla białek o dużej obfitości pojawia się rozkład bimodalny, co sugeruje, że obfitość białek jest lepszą metryką do funkcjonalnego porównania proteomów niż prosta metryka binarna
  • proteomy jednego typu komórek między różnymi stanami aktywacji są bardziej podobne niż proteomy różnych typów komórek w tym samym stanie

Dla wszystkich zainteresowanych udostępniłem oczyszczone dane w Dropbox.

Pełniejsza odpowiedź mogłaby łączyć dane z publikacji dotyczących komórek odpornościowych i komórek serca, aby uzyskać poczucie zgodności proteomu w tkankach, ale tylko pobieżna analiza różnic w etykietach białek między zestawami danych spowodowałaby, że porównanie byłoby nużące, więc będę zostaw to komuś innemu!


4 modele mieszanek

Jednym z głównych wyzwań analizy danych biologicznych jest radzenie sobie z heterogenicznością. Wielkości, którymi jesteśmy zainteresowani, często nie pokazują prostej, unimodalnej „dystrybucji podręcznikowej”. Na przykład w ostatniej części rozdziału 2) widzieliśmy, jak histogram wyników sekwencji na rycinie 2.25 miał dwa oddzielne tryby, jeden dla wysp CpG, a drugi dla wysp innych. Możemy zobaczyć dane jako prostą mieszankę kilku (w tym przypadku: dwóch) składników. Nazywamy to skończone mieszaniny. Inne mieszanki mogą zawierać prawie tyle składników, ile mamy obserwacji. Te nazywamy nieskończone mieszanki 58 58 Zobaczymy, że – podobnie jak w przypadku wielu wyborów związanych z modelowaniem – odpowiednia złożoność mieszanki leży w oku patrzącego i często zależy od ilości danych oraz rozdzielczości i płynności, jaką chcemy osiągnąć. .

W rozdziale 1 zobaczyliśmy, jak prosty model generatywny z rozkładem Poissona doprowadził nas do wyciągnięcia użytecznego wnioskowania w wykrywaniu epitopu. Niestety satysfakcjonujące dopasowanie do rzeczywistych danych przy tak prostym modelu jest często nieosiągalne. Jednak proste modele, takie jak rozkład normalny lub rozkład Poissona, mogą służyć jako cegiełki do tworzenia bardziej realistycznych modeli wykorzystujących strukturę mieszania, którą omówimy w tym rozdziale. Mieszaniny występują naturalnie dla danych cytometrii przepływowej, pomiarów biometrycznych, RNA-Seq, ChIP-Seq, mikrobiomu i wielu innych typów danych zbieranych przy użyciu nowoczesnych biotechnologii. W tym rozdziale na prostych przykładach nauczymy się budować bardziej realistyczne modele rozkładów przy użyciu mieszanin.


Biologia molekularna komórki. Wydanie IV.

Z chemicznego punktu widzenia białka są zdecydowanie najbardziej złożonymi strukturalnie i funkcjonalnie wyrafinowanymi cząsteczkami ze znanych. Być może nie jest to zaskakujące, gdy zdamy sobie sprawę, że struktura i chemia każdego białka była rozwijana i dopracowywana przez miliardy lat historii ewolucji. Rozpoczniemy ten rozdział od rozważenia, w jaki sposób położenie każdego aminokwasu w długim ciągu aminokwasów, który tworzy białko, determinuje jego trójwymiarowy kształt. Następnie wykorzystamy to zrozumienie struktury białka na poziomie atomowym, aby opisać, w jaki sposób dokładny kształt każdej cząsteczki białka determinuje jej funkcję w komórce.


Jak powstają innowacje komórkowe?

Ze względów praktycznych biologia komórki historycznie koncentrowała się na przeciętnych cechach członków dużych populacji jednorodnych genetycznie komórek. Jednak dobór naturalny nie oddziałuje bezpośrednio na średnie populacji, ale na zróżnicowanie między osobnikami. Co więcej, ewolucyjna reakcja na selekcję cechy nie jest prostą sprawą zmienności, ale funkcją frakcji zmienności, która ma podłoże genetyczne. Szacowanie tych kluczowych parametrów jest teraz w zasięgu ręki, ponieważ nowe technologie umożliwiają testy pojedynczych komórek w sposób wysokoprzepustowy. Zastosowanie tych metod do jednorodnych genetycznie populacji ujawnia znaczną zmienność między komórkami w specyficznej dla genu liczbie transkryptów i białek we wszystkich domenach życia (43 ⇓ –45), a taka zmienność (wewnętrzny szum komórkowy) wydaje się być naturalnym wynik biofizycznych cech interakcji między czynnikami transkrypcyjnymi a ich miejscami wiązania, które można określić ilościowo w kategoriach mechanistycznych (46, 47). Tego rodzaju obserwacje, które można rozszerzyć na inne cechy wewnątrzkomórkowe (48), są niezbędne do zrozumienia granic ewoluowania cech komórkowych. Dzieje się tak, ponieważ wariancja środowiskowa (szum wewnątrzkomórkowy) zmniejsza zdolność populacji do reagowania na selekcję poprzez przyćmienie dziedzicznego składnika genetycznego zmienności (49).

Chociaż koncepcyjnie proste, ustalenie stopnia, w jakim zmienność (i kowariancja) fenotypów w populacjach komórek jest konsekwencją przyczyn genetycznych lub środowiskowych, będzie wymagało projektów eksperymentalnych na dużą skalę, w tym genetycznie zmiennych izolatów. Zastosowane w ten sposób fenotypowanie pojedynczych komórek do poziomu pojedynczych cząsteczek może zrewolucjonizować dziedzinę genetyki ilościowej poprzez wyjaśnienie dokładnych źródeł zmienności leżących u podstaw ekspresji cech komórkowych wyższego rzędu. Warto zauważyć, że ramy statystyczne genetyki ilościowej są również w pełni przystosowane do zajmowania się ewolucyjnymi konsekwencjami przejściowych efektów epigenetycznych (49), których wpływy są rozpraszane w czasie z różnymi poziomami wzmocnienia (np. ref. 50 ⇓ –52).


3. Porównanie więcej niż dwóch średnich

3.1. Wstęp

Dwie próbki T -test sprawdza się dobrze w sytuacjach, w których musimy określić, czy istnieją różnice między dwiema populacjami, dla których mamy średnie z próby. Ale co się dzieje, gdy nasze analizy obejmują porównania między trzema lub więcej odrębnymi populacjami? Tutaj sprawy mogą się nieco skomplikować. Takie scenariusze pojawiają się na kilka sposobów. Najczęściej spotykane w naszej dziedzinie jest to, że otrzymaliśmy zbiór przykładowych środków, które chcemy porównać z jednym standardem. Na przykład, możemy mierzyć długość ciała młodych dorosłych osobników w stadium dorosłym hodowanych na płytkach żywieniowych RNAi, z których każda ma na celu jeden ze 100 różnych genów kolagenu. W tym przypadku chcielibyśmy porównać średnią długość zwierząt wyhodowanych na każdej płytce z kontrolnym RNAi, o którym wiadomo, że nie ma wpływu na długość ciała. Na pozór analiza statystyczna może wydawać się prosta: wystarczy przeprowadzić 100 dwóch próbek T -testy, w których średnia długość z każdej płytki z kolagenem RNAi jest porównywana z tą samą kontrolą. Problemem z tym podejściem jest nieunikniona obecność wyniki fałszywie pozytywne (znany również jako Błędy typu I ). Więcej T -testy, które przeprowadzasz, tym większa szansa na uzyskanie statystycznie istotnego wyniku poprzez losowe próbkowanie. Nawet jeśli wszystkie populacje były identyczne pod względem długości, 100 T -testy dałyby średnio pięć klonów RNAi wykazujących różnice wspierane przez P- wartości P -wartość <0,01. Ten typ problem wielokrotnych porównań jest powszechny w wielu naszych badaniach i jest szczególnie powszechnym problemem w eksperymentach o wysokiej przepustowości, takich jak mikromacierze, które zwykle obejmują wiele tysięcy porównań.

Przyjmując nieco inny kąt, możemy obliczyć prawdopodobieństwo poniesienia przynajmniej jeden fałszywe znaczenie w sytuacjach wielokrotnych porównań. Na przykład z tylko dwoma T -testy i próg istotności 0,05, byłaby 󕽺% szansa29, że otrzymamy co najmniej jeden P -wartość, która przypadkowo wynosiła <0,05 [1 – (0,95) 2 = 0,0975]. Przy zaledwie czternastu porównaniach prawdopodobieństwo to skacze do >50% (1 – (0,95) 14 = 0,512). Przy 100 porównaniach istnieje 99% szans na uzyskanie przynajmniej jednego statystycznie istotnego wyniku przez przypadek. Korzystając z kalkulatorów prawdopodobieństwa dostępnych w sieci (patrz również Rozdział 4.10), możemy określić, że na 100 testów istnieje 56,4% szansa na uzyskanie pięciu lub więcej fałszywych trafień i 2,8% szansa na uzyskanie dziesięciu lub więcej. Myśląc o tym w ten sposób, możemy słusznie obawiać się, że nasze badania mogą być najeżone błędnymi wnioskami! Co więcej, zmniejszenie wybranego progu istotności do 0,01 pomoże tylko tyle. W tym przypadku, przy 50 porównaniach, nadal istnieje 󕾘% prawdopodobieństwo, że przynajmniej jedno porównanie przypadkowo prześlizgnie się poniżej wartości granicznej. Co więcej, obniżając nasz próg, ryzykujemy odrzucenie wyników, które są istotne zarówno statystycznie, jak i biologicznie.

Pokrewna, ale odrębna sytuacja ma miejsce, gdy mamy zbiór średnich z próby, ale zamiast porównywać każdą z nich z pojedynczym standardem, chcemy porównać je wszystkie ze sobą. Podobnie jak w przypadku wielokrotnych porównań z pojedynczą kontrolą, problem tkwi w samej liczbie wymaganych testów. Przy zaledwie pięciu różnych średnich próbkach musielibyśmy przeprowadzić 10 osobników T -testy do analizy wszystkich możliwych porównań parami [5(5 − 1)/2 = 10]. Przy 100 próbkach oznacza to wzrost do 4950. (100(100 − 1)/2 = 4950). Opierając się na progu istotności 0,05, doprowadziłoby to do około 248 statystycznie istotnych wyników, które wystąpiły tylko przez przypadek! Oczywiście w przypadku tego rodzaju scenariuszy w grę wchodzi zarówno zdrowy rozsądek, jak i wykorzystanie specjalistycznych metod statystycznych. W poniższych sekcjach omawiamy niektóre z podstawowych pojęć i opisujemy kilka praktycznych podejść do obsługi analizy wielu średnich.

3.2. Bezpieczeństwo poprzez powtarzanie

Przed zagłębieniem się w niektóre z powszechnie stosowanych podejść do radzenia sobie z wielokrotnymi porównaniami, warto rozważyć scenariusz eksperymentalny, który prawdopodobnie nie wymagałby specjalistycznych metod statystycznych. W szczególności możemy rozważyć przypadek wielkoskalowego “funkcjonalnego badania genomicznego”. w C. elegans byłyby one zazwyczaj przeprowadzane przy użyciu bibliotek do karmienia RNAi (Kamath i wsp., 2003) lub genetyki chemicznej (Carroll i wsp., 2003) i mogą obejmować wiele tysięcy porównań. Na przykład, jeśli ostatecznie zidentyfikuje się 36 klonów RNAi, które prowadzą do oporności na konkretny patogen bakteryjny z zestawu 17 000 testowanych klonów, jak można przeanalizować ten wynik? Bez obaw: metodologia nie składa się z 17 000 testów statystycznych (każdy z pewnym prawdopodobieństwem niepowodzenia). To dlatego, że ostateczna liczba 36 klonów prawdopodobnie nie była wynikiem ani jednej rundy badań przesiewowych. W pierwszej rundzie (podstawowe badanie przesiewowe), większa liczba (powiedzmy 200 klonów) może być początkowo zidentyfikowana jako prawdopodobnie oporna (z pewnymi "fałszywymi znaczeniami"). Druga lub trzecia runda badań przesiewowych skutecznie wyeliminowałaby praktycznie wszystkie fałszywie pozytywne wyniki, zmniejszając liczbę klonów wykazujących spójny wpływ biologiczny do 36. Innymi słowy, drugorzędowe i trzeciorzędowe badania przesiewowe zmniejszyłyby prawie do zera prawdopodobieństwo, że którykolwiek z klony na końcowej liście są w błędzie, ponieważ szansa na wielokrotne uzyskanie tych samych fałszywych trafień byłaby bardzo niewielka. Ta idea “bezpieczeństwa poprzez niezależne powtórzenia eksperymentalne” jest również omówiona w Sekcji 4.10 w kontekście danych proporcjonalnych. Być może bardziej niż cokolwiek innego, wykonywanie niezależnych powtórzeń jest często najlepszym sposobem na utrwalenie wyników i uniknięcie obecności fałszywych alarmów w zbiorze danych.

3.3. Rodzinny wskaźnik błędów

Aby pomóc uporać się z problemami związanymi z wielokrotnymi porównaniami, statystycy wymyślili coś, co nazywa się rodzinny wskaźnik błędu . Jest to również czasami określane jako wskaźnik błędów w całej rodzinie , co może zapewnić lepszy opis intencji leżącej u podstaw. Podstawowa idea polega na tym, że zamiast rozpatrywać każde porównanie osobno, stosuje się statystyczny punkt odcięcia, który uwzględnia cały zbiór porównań. Przypomnijmy, że w przypadku porównań indywidualnych (czasami nazywanych na podstawie porównania lub wskaźnik błędu w porównaniu ), a P -wartość <0,05 mówi nam, że dla tego konkretnego porównania istnieje mniej niż 5% szans na otrzymanie różnicy co najmniej tak dużej, jak ta zaobserwowana przypadkowo. Innymi słowy, przy braku jakiejkolwiek rzeczywistej różnicy między dwiema populacjami, istnieje 95% szansa, że ​​nie przedstawimy fałszywego wniosku o istotności statystycznej. W podejściu opartym na rodzinnym poziomie błędu kryterium stosowane do oceny statystycznej istotności każdego indywidualnego porównania jest bardziej rygorystyczne, aby zrekompensować całkowitą liczbę dokonywanych porównań. Odbywa się to zazwyczaj poprzez obniżenie P -wartość odcięcia (poziom α) dla jednostki T -testy. Kiedy wszystko zostało powiedziane i zrobione, P -wartość <0,05 oznacza, że ​​prawdopodobieństwo, że cały zbiór zadeklarowanych wyników pozytywnych zawiera jakiekolwiek wyniki fałszywie dodatnie, jest mniejsze niż 5%.

Możemy użyć naszego przykładu eksperymentu z kolagenem, aby dokładniej zilustrować znaczenie współczynnika błędu rodzinnego. Załóżmy, że testujemy 100 genów i stosujemy rodzinną wartość graniczną błędu 0,05. Być może to pozostawia nam listę 12 genów, które prowadzą do zmian w wielkości ciała, które uważa się za statystycznie znaczące . Oznacza to, że istnieje tylko 5% szans, że jeden lub więcej z 12 zidentyfikowanych genów jest fałszywie dodatni. Oznacza to również, że gdyby żaden ze 100 genów nie kontrolował rozmiaru ciała, to w 95% przypadków nasz eksperyment nie prowadziłby do żadnych pozytywnych wyników.Bez tego rodzaju dostosowania i przy użyciu poziomu α 0,05 dla poszczególnych testów można oczekiwać, że obecność jednego lub więcej wyników fałszywie dodatnich w zestawie danych na podstawie 100 porównań wystąpi w >99% przypadków. Poniżej opisano kilka technik stosowania współczynnika błędu dla całej rodziny.

3.4. Korekty typu Bonferroniego

ten Metoda Bonferroniego , wraz z kilkoma powiązanymi technikami, jest koncepcyjnie prosty i zapewnia konserwatywne wskaźniki błędów dla całej rodziny. Aby użyć metody Bonferroniego, wystarczy podzielić wybraną rodzinną stopę błędu (np. 0,05) przez liczbę porównań, aby uzyskać skorygowaną wartość Bonferroniego P -wartość odcięcia. Wracając do naszego przykładu genów kolagenu, jeśli pożądany wskaźnik błędu rodzinnego wynosi 0,05, a liczba porównań wynosi 100, skorygowany próg istotności dla porównania zostanie zmniejszony do 0,05/100 = 0,0005. Tak więc indywidualna T -testy plonowania P -wartości tak niskie jak 0,0006 zostałyby uznane za nieistotne. Może to brzmieć dość surowo. W rzeczywistości prawdziwym problemem z metodą Bonferroniego jest to, że w przypadku dużej liczby porównań próg istotności może być tak niski, że można nie wykryć znacznej części prawdziwych wyników pozytywnych w zbiorze danych. Z tego powodu metoda Bonferroniego jest powszechnie uważana za zbyt konserwatywną w sytuacjach z dużą liczbą porównań.

Inną odmianą metody Bonferroniego jest zastosowanie progów istotności dla każdego porównania w sposób niejednolity. Na przykład, przy rodzinnym poziomie błędu 0,05 i 10 porównań, jednolity punkt odcięcia wymagałby dowolnego podanego T -test, aby mieć skojarzonego P -wartość <0,005, którą należy uznać za istotną. Innym sposobem myślenia o tym jest to, że suma 10 poszczególnych punktów odcięcia musi się sumować do 0,05. Co ciekawe, integralność rodzinnego współczynnika błędu nie jest zagrożona, jeśli zastosuje się próg istotności 0,04 dla jednego porównania i próg 0,00111 (0,01/9) dla pozostałych dziewięciu. Dzieje się tak, ponieważ 0,04 + 9 (0,00111) ≈ 0,05. Problem polega jednak na tym, że nie można podjąć decyzji o zastosowaniu niejednorodnych wartości granicznych istotności post hoc w oparciu o to, jak liczby się trzęsą! Aby ta metoda została prawidłowo wdrożona, badacze muszą najpierw ustalić priorytety porównań w oparciu o postrzeganą wagę określonych testów, na przykład czy negatywne konsekwencje zdrowotne lub środowiskowe mogą wynikać z niewykrycia określonej różnicy. Na przykład ważniejsze może być wykrycie korelacji między emisjami przemysłowymi a zachorowalnością na raka u dzieci niż z wpływem na tempo dojrzewania pomidorów. To wszystko może brzmieć dość arbitralnie, ale mimo wszystko jest to uzasadnione statystycznie.

3.5. Wskaźniki fałszywych odkryć

Jak omówiono powyżej, metoda Bonferroniego natrafia na kłopoty w sytuacjach, w których dokonywanych jest wiele porównań, ponieważ znaczna część prawdziwie pozytywnych wyników prawdopodobnie zostanie odrzucona z powodu nieosiągnięcia wyniku poniżej skorygowanego progu istotności. Innymi słowy, moc eksperymentu w celu wykrycia rzeczywistych różnic może stać się niedopuszczalnie niski. Benjaminiemu i Hochbergowi (1995) przypisuje się wprowadzenie idei współczynnik fałszywych odkryć (FDR) , które stało się nieodzownym podejściem do prowadzenia analizy statystycznej eksperymentów złożonych z dużej liczby porównań. Co ważne, metoda FDR ma większą moc niż metoda Bonferroniego. W języku ojczystym metody FDR statystycznie istotne odkrycie określa się jako „odkrycie” 8221. Ostatecznie podejście FDR pozwala badaczowi na ustalenie akceptowalnego poziomu fałszywe odkrycia (zwykle 5%), co oznacza, że ​​każde zadeklarowane istotne odkrycie ma 5% szans na fałszywie pozytywny wynik. Różni się to zasadniczo od idei modelu rodzinnego, w którym wskaźnik błędu wynoszący 5% oznacza, że ​​istnieje 5% prawdopodobieństwo, że którykolwiek z deklarowanych istotnych ustaleń jest fałszywy. Ta ostatnia metoda zaczyna się od stanowiska, że ​​nie ma różnic. Metoda FDR tego nie zakłada.

Metoda FDR polega na wykonaniu wielu porównań parami, a następnie uporządkowaniu ich zgodnie z ich powiązanymi P -wartości, od najniższej do najwyższej wyświetlanej od góry do dołu. W przykładach przedstawionych w Tabeli 3 dokonano tego za pomocą zaledwie 10 porównań (dla trzech różnych zestawów danych), ale ta metoda jest częściej stosowana w badaniach obejmujących setki lub tysiące porównań. To, co sprawia, że ​​metoda FDR jest koncepcyjnie wyjątkowa, to fakt, że każdy z testów P -wartości są mierzone względem innego progu istotności. W przykładzie z 10 indywidualnymi testami, ten dający najniższy P -wartość jest mierzona względem 30 0,005 (0,05/10). Odwrotnie, najwyższy P -wartość jest mierzona względem 0,05. Przy dziesięciu porównaniach inne progi istotności po prostu rozgrywają się w uporządkowanych przyrostach 0,005 (Tabela 3). Na przykład pięć progów istotności zaczynających się od góry listy to 0,005, 0,010, 0,015, 0,020 i 0,025. Formuła to k (α/ C ), gdzie C to liczba porównań i k jest kolejnością rang (według posortowanych P wartości) porównania. Gdyby dokonano 100 porównań, najwyższy próg nadal wynosiłby 0,05, ale najniższe pięć w kolejności to 0,0005, 0,0010, 0,0015, 0,0020 i 0,0025. Po sparowaniu każdego eksperymentalnie wyprowadzonego P -wartość z innym progiem istotności, sprawdza się, czy P -wartość jest mniejsza niż przepisany próg. Jeśli tak, to różnica jest uznawana za statystycznie istotną (odkrycie), w którym to momencie przechodzi się do następnego porównania, obejmującego drugą pod względem wartości P -wartość. Ten proces trwa do P Znaleziono wartość, która jest wyższa niż odpowiedni próg. W tym momencie ten i wszystkie pozostałe wyniki są uważane za nieistotne.

Tabela 3. Ilustracja metody FDR, opartej na sztucznym P -wartości z 10 porównań.

Podświetlone wartości wskazują pierwsze P -wartość, która jest większa niż próg istotności (tj. wartość krytyczna FDR)].

*Porównania, które zostały uznane za istotne przez metodę.

Przykłady tego, jak to może się rozegrać, przedstawiono w Tabeli 3. Należy zauważyć, że chociaż niektóre porównania poniżej pierwszego niezaliczonego testu mogą same w sobie być mniejsze niż odpowiadające im progi istotności (Zestaw danych nr 3), testy te są jednak uznawane za nieistotne. Może się to wydawać irytujące, ale bez tej właściwości test nie zadziałałby. Jest to podobne do „jednego strajku” i wypadasz z gry. Innymi słowy, test ten, wraz ze wszystkimi znajdującymi się poniżej na liście, jest deklarowany persona non grata i poprosił o opuszczenie lokalu!

Chociaż podejście FDR nie jest bardzo intuicyjne, a logika nie jest łatwa do opanowania, warto rozważyć kilka scenariuszy, aby zobaczyć, jak może się sprawdzić metoda FDR. Na przykład, przy 100 niezależnych testach dwóch identycznych populacji, można oczekiwać, że losowe próbkowanie da przeciętnie jeden wynik T -test mający skojarzony P -wartość 0,01 31 . Jednak biorąc pod uwagę, że odpowiedni próg istotności wynosiłby 0,0005, test ten nie przeszedłby pomyślnie, a pozostałe testy również zostałyby odrzucone. Nawet jeśli przypadkiem P - uzyskano wartość <0,0005, następną prawdopodobnie najniższą P -wartość na liście, 0,02, byłaby mierzona w stosunku do 0,001, co podkreśla, że ​​metoda FDR będzie skuteczna w eliminowaniu oszustów. Następnie rozważ sytuację odwrotną: 100 T -testy przeprowadzone na dwóch rzeczywiście różniących się populacjach. Ponadto, w oparciu o wielkość różnicy i wybraną wielkość próby, oczekiwalibyśmy uzyskania średniej P -wartość 0,01 dla wszystkich testów. Oczywiście przypadkowe próbkowanie doprowadzi do pewnych eksperymentalnych różnic, które skutkować będą: P -wartości wyższe lub niższe od 0,01, w tym średnio 0,0001 (0,01/100). Ponieważ jest to mniej niż granica 0,0005, zostałoby to sklasyfikowane jako odkrycie, podobnie jak wiele, choć nie wszystkie, testów z tej konkretnej listy. W ten sposób podejście FDR odda również część wniosków fałszywie negatywnych (często określanych jako błędy typu II). Jednak w porównaniu z metodą Bonferroniego, gdzie próg istotności zawsze odpowiada najniższemu punktowi odcięcia FDR, proporcja tych błędów będzie znacznie mniejsza.

3.6. Analiza wariancji

Całe książki poświęcone są metodzie statystycznej znanej jako analiza wariancji 32 (ANOVA) . Ta sekcja będzie zawierać tylko trzy akapity. Wynika to częściowo z poglądu niektórych statystyków, że techniki ANOVA są nieco przestarzałe lub przynajmniej zbędne w porównaniu z innymi metodami, takimi jak regresja wielokrotna (patrz rozdział 5.5). Ponadto pobieżne przejrzenie literatury dotyczącej robaków pozwoli odkryć stosunkowo niewielkie wykorzystanie tej metody. Tradycyjnie ANOVA odpowiada na następujące pytanie: czy którakolwiek ze średnich wartości w zbiorze danych może pochodzić z populacji 33, które są naprawdę różne? Odpowiednio, hipoteza zerowa dla ANOVA jest taka, że ​​wszystkie próbki pochodzą z populacji, których średnie są identyczne i że wszelkie różnice w ich średnich wynikają z losowego doboru próby. Zatem ANOVA domyślnie porówna ze sobą wszystkie możliwe kombinacje par próbek w poszukiwaniu różnic. Warto zauważyć, że w przypadku wyniku pozytywnego ANOVA nie wskaże bezpośrednio, które populacje różnią się od siebie. ANOVA mówi nam tylko, że co najmniej jedna próbka prawdopodobnie pochodzi z populacji, która różni się od co najmniej jednej innej populacji.

Ponieważ takie informacje mogą być mniej niż całkowicie satysfakcjonujące, ANOVA jest często używana w sposób dwupoziomowy z innymi testami, te ostatnie testy są czasami określane jako testy post hoc . W przypadkach, gdy ANOVA sugeruje obecność różnych populacji, T -testy lub inne procedury (opisane poniżej) mogą być użyte do identyfikacji różnic między określonymi populacjami. Co więcej, o ile P -wartość powiązana z ANOVA jest poniżej wybranego progu istotności, dwie średnie różniące się największą wartością mają pewność, że zostaną poparte dalszymi testami. Korelat jednak nie jest prawdziwy. Mianowicie, możliwe jest “wybranie” dwóch środków ze zbioru danych (np. tych, które różnią się najbardziej) i uzyskanie wartości P, która wynosi <0,05 na podstawie T -przetestuj, nawet jeśli P -wartość ANOVA (która jednocześnie uwzględnia wszystkie średnie) wynosi >0,05. Zatem ANOVA zapewni bardziej konserwatywną interpretację niż T -testy z wykorzystaniem wybranych par średnich. Oczywiście skupienie się na pewnych porównaniach może być w niektórych przypadkach całkowicie uzasadnione (patrz omówienie planowanych porównań poniżej). W rzeczywistości dzieje się tak na ogół tylko w sytuacjach, w których nie ma wystarczającej ilości Struktura w grupach terapeutycznych, aby zainspirować konkretne porównania, w których ANOVA ma największe zastosowanie. W takich przypadkach nieistotny wynik ANOVA może rzeczywiście stanowić podstawę do zaprzestania dalszego postępowania.

W przypadku pozytywnego wyniku ANOVA, powszechnie stosowany post hoc metoda to Test Tukeya , który ma wiele różnych nazw, w tym uczciwy test znaczących różnic Tukey'a i Tukey-Kramer test . Wynikiem tego testu jest lista 95% przedziałów ufności różnice między środkami dla wszystkich możliwych par populacji. Rzeczywiste różnice między populacjami są wskazane, gdy 95% CI dla danego porównania nie zawiera zera. Co więcej, ze względu na rodzinny charakter tej analizy, cały zestaw porównań ma tylko 5% szansy na zawieranie fałszywych trafień. Podobnie jak w przypadku innych metod wielokrotnych porównań, szansa na uzyskanie fałszywe negatywy wzrasta wraz z liczbą badanych populacji, a wraz z post hoc Metody ANOVA, ten wzrost jest zwykle wykładniczy. W teście Tukeya efekt zwiększenia liczby populacji objawia się poszerzeniem 95% CI, tak że wyższy odsetek będzie obejmował zero. Test Tukeya ma większą moc niż metoda Bonferroniego, ale nie generuje precyzyjnych P -wartości dla konkretnych porównań. Aby jednak uzyskać pewne pojęcie o poziomach istotności, można uruchomić test Tukeya przy użyciu kilku różnych progów istotności dla rodziny (0,05, 0,01 itd.), aby zobaczyć, które porównania są istotne przy różnych progach. Oprócz testu Tukeya opracowano wiele innych metod post hoc ANOVA obejmująca test Dunnetta, test Holma i test Scheffego. Tak więc, jeśli twoje analizy przeniosą cię mocno w sferę ANOVA, może być konieczne kształcenie się na temat różnic między tymi podejściami.

3.7. Podsumowanie metod wielokrotnych porównań

Rysunek 10 przedstawia wizualne podsumowanie omówionych powyżej metod wielokrotnych porównań. Jak widać, prawdopodobieństwo błędnego zadeklarowania wyniku jako statystycznie istotnego jest największe w przypadku przeprowadzania wielokrotnych T -testy bez poprawek i najmniejsze metodami typu Bonferroniego. I odwrotnie, błędne stwierdzenie braku znaczącej różnicy, nawet jeśli taka istnieje, najprawdopodobniej wystąpi przy użyciu metody Bonferroniego. Tak więc metoda Bonferroniego jest najbardziej konserwatywnym z omawianych podejść, z FDR zajmującym środek pola. Dodatkowo nie ma reguły, czy jednolita czy niejednolita metoda Bonferroniego będzie bardziej konserwatywna, ponieważ zawsze będzie zależna od sytuacji. Chociaż omówiono powyżej, ANOVA została pominięta na Figurze 10, ponieważ ta metoda nie ma zastosowania do indywidualnych porównań. Niemniej jednak można założyć, że ANOVA jest bardziej konserwatywna niż nieskorygowana wielokrotność T -testy i mniej konserwatywne niż metody Bonferroniego. Wreszcie możemy zauważyć, że moc statystyczna analizy jest najniższa w przypadku stosowania bardziej konserwatywnych podejść (omówionych dalej w sekcji 6.2).

Rysunek 10. Porównanie siły i słabości metod statystycznych stosowanych do analizy wielu średnich.

3.8. Kiedy korekty wielokrotnych porównań nie są wymagane?

Nie ma prawa, które mówiłoby, że należy dokonać wszelkich możliwych porównań. Wybór małego podzbioru porównań do analizy jest całkowicie dopuszczalny, pod warunkiem, że decyzja ta jest podejmowana przed wygenerowaniem danych, a nie później, w oparciu o przebieg wyników! Ponadto w przypadku niektórych zbiorów danych tylko niektóre porównania mogą mieć sens biologiczny lub być interesujące. W ten sposób często można skoncentrować się na podzbiorze odpowiednich porównań. Jak zawsze, zdrowy rozsądek i jasne zrozumienie biologii są niezbędne. Takie sytuacje są czasami określane jako planowane porównania, podkreślając w ten sposób niezbędną premedytację. Przykładem może być testowanie wpływu na długowieczność określonego genu, który, jak masz powody sądzić, kontroluje ten proces. Ponadto możesz dołączyć pewne kontrole negatywne, a także niektórych kandydatów „długoterminowych”, których wywnioskowałeś z lektury literatury. Jednak fakt, że uwzględniłeś wszystkie te warunki w tym samym przebiegu eksperymentalnym, niekoniecznie oznaczałby konieczność zrekompensowania wielokrotnych porównań podczas analizy danych.

Ponadto, gdy wyniki wielu testów są wewnętrznie spójne, często nie są potrzebne korekty wielokrotnych porównań. Na przykład, jeśli testujesz zdolność utraty funkcji genu X do tłumienia mutacji wzmocnienia funkcji w genie Y, możesz chcieć przetestować wiele zmutowanych alleli genu X, a także RNAi celującego w kilka różnych regionów X. W takich przypadkach można zaobserwować różne stopnie supresji genetycznej we wszystkich badanych warunkach. Tutaj nie musisz dostosowywać się do liczby przeprowadzonych testów, ponieważ wszystkie dane potwierdzają ten sam wniosek. W tym samym duchu można argumentować, że tłumienie zmutowanego fenotypu przez wiele genów w ramach jednej ścieżki lub kompleksu może być wyłączone z kwestii wielokrotnych porównań. Wreszcie, jak omówiono powyżej, przeprowadzenie wielu niezależnych testów może być wystarczające, aby uniknąć konieczności stosowania poprawek statystycznych dla wielokrotnych porównań.

3.9. Filozoficzny argument za brakiem korekt dla wielokrotnych porównań

Wyobraź sobie, że napisałeś rękopis zawierający piętnaście cyfr (z których czternaście jest uzupełnieniem). Osadzone w tych liczbach są 23 niezależne T -testy, z których żaden nie wydaje się być oczywistym kandydatem do korekt wielokrotnych porównań. Jednak zaczynasz się martwić. Ponieważ wybrany próg istotności dla twoich testów wynosił 0,05, istnieje prawie 70% szansa [1 – (0,95) 23 = 0,693], że przynajmniej jeden z twoich wniosków jest błędny 34 . Zastanawiając się nad tym bardziej, zdajesz sobie sprawę, że w trakcie swojej kariery masz nadzieję opublikować co najmniej 50 artykułów, z których każdy może zawierać średnio 20 testów statystycznych. Oznaczałoby to, że w trakcie swojej kariery masz 99,99999999999999999999947% szans na opublikowanie co najmniej jednego błędu i bez wątpienia opublikujesz wiele (przynajmniej te oparte na testach statystycznych). Aby uniknąć tego upokorzenia, postanawiasz działać proaktywnie i narzucać kariera mądra Korekta Bonferroniego do analizy danych. Od teraz, aby wyniki z odpowiednimi testami statystycznymi były uznawane za prawidłowe, muszą mieć P -wartość <0,000005 (0,05/1000). Przeglądając twój obecny rękopis, zdajesz sobie sprawę, że tylko cztery z 23 testów spełnią twoje nowe kryteria. Z wielkim smutkiem w sercu przenosisz swój rękopis do kosza na swoim pulpicie.

Chociaż powyższa narracja może być śmieszna (właściwie, tak miało być), podstawowe kwestie są bardzo realne. Wnioski na podstawie singla T -testy, które nie są poparte dodatkowymi danymi uzupełniającymi, mogą być nieprawidłowe. A więc gdzie wytyczyć granicę? Jedną z odpowiedzi jest to, że nie należy rysować żadnej linii, nawet w sytuacjach, w których korekty wielokrotnych porównań wydają się uzasadnione. Wyniki można przedstawić z odpowiednimi P wartości, a czytelnicy mogą mieć możliwość dokonywania własnych ocen dotyczących ich ważności. W przypadku większych zbiorów danych, takich jak te z badań mikromacierzowych, można oszacować liczbę lub odsetek prawdopodobnych wyników fałszywie dodatnich, aby dać czytelnikom poczucie zakresu problemu. Nawet bez tego czytelnicy mogliby teoretycznie spojrzeć na liczbę dokonanych porównań, wybrany próg istotności i liczbę pozytywnych trafień, aby uzyskać ogólne pojęcie o proporcji fałszywych trafień. Chociaż wielu recenzentów i czytelników może nie być zadowolonych z tego rodzaju podejścia, wiedz, że istnieją profesjonalni statystycy, którzy wspierają tę strategię.Co być może najważniejsze, zrozum, że niezależnie od zastosowanego podejścia, zestawy danych, szczególnie duże, bez wątpienia będą zawierać błędy, w tym zarówno fałszywie pozytywne, jak i fałszywie negatywne. Tam, gdzie to możliwe, staraj się potwierdzać własne wyniki za pomocą wielu niezależnych metod, aby nie dać się zwieść przypadkowi.

29 Ta dyskusja zakłada, że ​​hipoteza zerowa (brak różnicy) jest prawdziwa we wszystkich przypadkach.

30 Zwróć uwagę, że jest to wartość krytyczna Bonferroniego, z którą porównywane byłyby wszystkie wartości P.

31 Jeśli hipoteza zerowa jest prawdziwa, wartości P są wartościami losowymi, równomiernie rozłożonymi między 0 a 1.

32 Nazwa jest nieco niefortunna, ponieważ cała statystyka poświęcona jest analizie wariancji i przypisywaniu jej losowym źródłom lub pewnym modelowanym efektom.

33 Są one określane w oficjalnym języku narodowym ANOVA jako grupy terapeutyczne.

34 To prawda przy założeniu, że żaden z nich nie jest w rzeczywistości prawdziwy.


METODY

Materiały roślinne i warunki wzrostu

Rośliny użyte w tym badaniu były Arabidopsis thaliana Ekotyp Col-0, ekotyp A17 z Medicago truncatula, odmiana pomidora M82 LA3475 (Solanum lycopersicum) oraz odmiana ryżu Nipponbare (Oryza sativa). Rośliny transgeniczne każdego gatunku pod kątem INTACT wytworzono przez transformację wektorem binarnym niosącym zarówno konstytutywnie eksprymowaną ligazę biotynową, jak i konstytutywnie eksprymowane białko NTF zawierające domenę asocjacyjną jądrowej błony zewnętrznej (Ron et al., 2014). Wektor binarny używany do M. truncatula był identyczny z wektorem pomidorowym (Ron et al., 2014), ale został skonstruowany w wektorze pB7WG zawierającym gen oporności na fosfinotrycynę do selekcji roślin i zachowuje oryginalny AtACT2p promotor. Wektor binarny stosowany do ryżu jest opisany w innym miejscu (Reynoso i wsp., 2017). Transformację ryżu przeprowadzono w UC Riverside, a transformację pomidorów w zakładzie transformacji roślin UC Davis. Rośliny Arabidopsis zostały przekształcone metodą zanurzania kwiatów (Clough i Bent, 1998) i złożonej transgenicznej M. truncatula rośliny zostały wyprodukowane zgodnie z ustalonymi procedurami ( Limpens et al., 2004).

Do badań chromatyny wierzchołków korzeni, konstytutywne nasiona roślin transgenicznych INTACT wyjałowiono powierzchniowo i wysiano na pożywce 0,5x Murashige i Skoog (MS) (Murashige i Skoog, 1962) z 1% (wag./obj.) sacharozą na płytkach Petriego o średnicy 150 mm , z wyjątkiem pomidora i ryżu, gdzie zastosowano pełnowartościową pożywkę MS z 1% (wag./obj.) sacharozą i bez witamin. Sadzonki hodowano na pionowo ustawionych płytkach w kontrolowanych komorach wzrostu przez 7 dni po wykiełkowaniu, w którym to momencie 1-cm wierzchołki korzeni zebrano i natychmiast zamrożono w płynnym N2 do późniejszej izolacji jąder. Temperatura wzrostu i natężenie światła wyniosły 20°C i 200 μmol/m 2 /s dla Arabidopsis i M. truncatula, 23°C i 80 μmol/m2/s dla pomidora oraz 28°C/25°C dzień/noc i 110 μmol/m2/s dla ryżu. Cykle świetlne wynosiły 16 godzin światła/8 godzin ciemności dla wszystkich gatunków, a światło wytworzono stosując mieszaninę 50:50 świetlówek 6500K i 3000K T5.

Do badań typów włośnika i komórek niewłosowych wykorzystano opisane wcześniej linie transgeniczne INTACT (Deal i Henikoff, 2010). Linie te znajdują się w tle Col-0 i niosą konstytutywnie eksprymowany gen ligazy biotynowej (ACT2p:BirA) i transgen nadający specyficzną dla typu komórki ekspresję genu NTF (z GLABRA2 promotor w komórkach niewłosych lub CZYNNIK DEPOLIMERYZACJI AKTYN 8 promotor w komórkach włosa korzenia). Rośliny hodowano pionowo na płytkach, jak opisano powyżej, przez 7 dni, w którym to momencie zebrano 1,25-cm segmenty z w pełni zróżnicowanej strefy komórkowej i błyskawicznie zamrożono w płynnym N2. Ten segment korzenia zawiera tylko w pełni zróżnicowane komórki i wyklucza wierzchołek korzenia poniżej i wszelkie korzenie boczne powyżej.

Izolacja jąder

Do porównania ATAC-seq z użyciem surowych i oczyszczonych metodą INTACT jąder Arabidopsis wykorzystano konstytutywną linię INTACT (ACT2p:BirA/UBQ10p:NTF) (Sullivan et al., 2014), a jądra wyizolowano jak opisano wcześniej (Bajic et al., 2018). Krótko mówiąc, po wzroście i zebraniu, jak opisano powyżej, 1 do 3 g wierzchołków korzeni zmielono na proszek w płynnym N2 w moździerzu i tłuczku, a następnie ponownie zawieszono w 10 ml NPB (20 mM MOPS, pH 7, 40 mM NaCl, 90 mM KCl, 2 mM EDTA, 0,5 mM EGTA, 0,5 mM spermidyna, 0,2 mM spermina i 1x Roche Complete inhibitory proteazy) z dalszym mieleniem. Zawiesinę tę następnie przefiltrowano przez 70 μM filtr do komórek i odwirowano w 1200g przez 10 min w 4°C. Po zdekantowaniu osad jąder ponownie zawieszono w 1 ml NPB i podzielono na dwie frakcje po 0,5 ml w nowych probówkach. Jądra z jednej frakcji oczyszczono metodą INTACT przy użyciu kulek magnetycznych pokrytych streptawidyną, jak opisano wcześniej (Bajic i wsp., 2018) i trzymano na lodzie przed zliczaniem, a następnie reakcją integracji transpozazy. Jądra z drugiej frakcji oczyszczono przez lizę niejonowego detergentu organelli i sedymentację sacharozy, jak opisano wcześniej (Bajic i wsp., 2018). W skrócie, jądra te w 0,5 ml NPB osadzano w 1200g przez 10 min w 4°C, zdekantowano i ponownie dokładnie zawieszono w 1 ml zimnego EB2 (0,25 M sacharoza, 10 mM Tris, pH 8, 10 mM MgCl2, 1% Triton X-100 i 1x Roche Complete inhibitory proteazy). Jądra były następnie granulowane w 1200g przez 10 min w 4°C, zdekantowano i ponownie zawieszono w 300 μl EB3 (1,7 M sacharoza, 10 mM Tris, pH 8, 2 mM MgCl2, 0,15% Triton X-100 i 1x Roche Complete inhibitory proteazy). Ta zawiesina została następnie delikatnie nałożona na 300 μl świeżego EB3 w 1,5-ml probówce i odwirowana przy 16 000g przez 10 min w 4°C. Osadzone jądra były następnie ponownie zawieszane w 1 ml zimnego NPB i trzymane na lodzie przed zliczaniem i integracją transpozazy.

Do INTACT oczyszczania całkowitych jąder z wierzchołków korzeni M. truncatula, pomidor i ryż, a także oczyszczanie włośnika z korzenia Arabidopsis i jąder komórek niewłosowych, stosowano od 1 do 3 g tkanki wyjściowej. We wszystkich przypadkach jądra oczyszczono metodą INTACT, a wydajność jąder oznaczono ilościowo, jak opisano wcześniej (Bajic i wsp., 2018).

ATAC-Seq

Świeżo oczyszczone jądra do wykorzystania w ATAC-seq trzymano na lodzie przed reakcją integracji transpozazy i nigdy nie zamrażano. Reakcje integracji transpozazy i przygotowania bibliotek do sekwencjonowania przeprowadzono zgodnie z wcześniejszym opisem (Bajic i wsp., 2018). W skrócie, 50 000 oczyszczonych jąder lub 50 ng genomowego DNA liści Arabidopsis zastosowano w każdej 50 µl reakcji integracji transpozazy przez 30 min w 37°C przy użyciu odczynników Nextera (Illumina FC-121-1030). Fragmenty DNA oczyszczono za pomocą zestawu do oczyszczania Minelute PCR (Qiagen), wymyto w 11 μl buforu do elucji, a całość każdej próbki została następnie amplifikowana przy użyciu High Fidelity PCR Mix (NEB) i niestandardowych starterów z kodem kreskowym dla łącznie od 9 do 12 Cykle PCR. Te zamplifikowane biblioteki ATAC-seq oczyszczono przy użyciu kulek AMPure XP (Beckman Coulter), oznaczono ilościowo metodą qPCR z zestawem NEBNext Library Quantification Kit (NEB) i przeanalizowano na Bioanalyzer High Sensitivity DNA Chip (Agilent) przed łączeniem w pulę i sekwencjonowaniem.

Sekwencjonowanie wysokoprzepustowe

Sekwencjonowanie przeprowadzono za pomocą instrumentu Illumina NextSeq 500 lub HiSeq 2000 w Georgia Genomics Facility na Uniwersytecie Georgia. Odczyty sekwencjonowania obejmowały albo jeden koniec 50-nukleotydowy, albo sparowany koniec 36-nukleotydowy, a wszystkie biblioteki, które miały być bezpośrednio porównane, zostały zebrane i zsekwencjonowane w tej samej komórce przepływowej.

Mapowanie, przetwarzanie i wizualizacja odczytu sekwencji

Odczyty sekwencjonowania mapowano na odpowiadający im genom pochodzenia za pomocą oprogramowania Bowtie2 (Langmead i Salzberg, 2012) z domyślnymi parametrami. Budynki genomu użyte w tym badaniu to Arabidopsis w wersji TAIR10, M. truncatula wersja Mt4.0, wersja Tomato SL2.4 i wersja Rice IRGSP 1.0.30. Zmapowane odczyty w formacie .sam zostały przekonwertowane na format .bam i posortowane przy użyciu Samtools 0.1.19 (Li et al., 2009). Zmapowane odczyty zostały następnie przefiltrowane za pomocą Samtools, aby zachować tylko te odczyty z wynikiem jakości mapowania 2 lub wyższym (Samtools „pogląd” polecenie z opcją „-q 2”, aby ustawić granicę jakości mapowania). Odczyty Arabidopsis ATAC-seq zostały następnie przefiltrowane za pomocą Samtools, aby usunąć te mapowania do genomu chloroplastowego lub mitochondrialnego, a zestawy danych dotyczących włosów korzeniowych i komórek innych niż włosowe zostały również podzielone na podpróbki, tak aby eksperymenty w replikacji biologicznej miały taką samą liczbę zmapowanych odczytów przed dalszą analizą. W celu normalizacji i wizualizacji przefiltrowane, posortowane pliki .bam zostały przekonwertowane do formatu Bigwig za pomocą „bamreklama” skrypt w deepTools 2.0 ( Ramírez et al., 2016) z rozmiarem bin 1 bp i normalizacją RPKM. Użycie terminu normalizacja w tym artykule odnosi się do tego procesu. Mapy cieplne i średnie wykresy przedstawiające dane ATAC-seq zostały również wygenerowane przy użyciu „computeMatrix" oraz "mapa cieplna” funkcje w pakiecie deepTools. Obrazy przeglądarki genomu zostały wykonane przy użyciu Integrative Genomics Viewer (IGV) 2.3.68 (Thorvaldsdóttir et al., 2013) z plikami Bigwig przetworzonymi w sposób opisany powyżej.

Identyfikacja genów ortologicznych wśród gatunków

Geny ortologiczne wśród gatunków zostały wybrane wyłącznie z regionów syntenicznych czterech genomów. Ortologi synteniczne zostały zidentyfikowane przy użyciu kombinacji CoGe SynFind (https://genomevolution.org/CoGe/SynFind.pl) z parametrami domyślnymi oraz CoGe SynMap (https://genomevolution.org/coge/SynMap.pl) z QuotaAlign wybrane cechy i wymagane co najmniej sześć dopasowanych par ( Lyons i Freeling, 2008 Lyons i in., 2008).

Szczytowe wywołanie w celu wykrycia THS

Szczytowe wywołanie na danych ATAC-seq zostało wykonane przy użyciu „Znajdźszczyty” funkcja pakietu HOMER (Heinz i in., 2010). Parametry "-region" oraz "-minOdleg 150” zostały użyte, aby umożliwić identyfikację pików o zmiennej długości i ustawić minimalną odległość 150 pz między pikami, zanim zostaną one odpowiednio połączone w jeden pik. Piki nazywamy w ten sposób miejscami nadwrażliwości na transpozazę lub THS.

Dystrybucja genomowa THS

Dla każdego genomu rozmieszczenie THS w stosunku do cech genomowych zostało ocenione za pomocą narzędzia internetowego PAVIS (Huang i in., 2013) z regionami „upstream” ustawionymi jako 2000 pz powyżej opisanego miejsca rozpoczęcia transkrypcji i zestawem regionów „downstream” jako 1000 pz poniżej miejsca terminacji transkrypcji.

Analizy motywów TF

Do analizy motywów zastosowano ATAC-seq THS, które znaleziono w dwóch powtórzeniach każdej próbki. Regiony dostosowano do tej samej wielkości (500 pz dla THS wierzchołka korzenia lub 300 pz dla dTHS specyficznych dla typu komórki). Potok MEME-ChIP (Machanick i Bailey, 2011) został uruchomiony na plikach fasta zamaskowanych powtórzeniami reprezentującymi każdy zestaw THS w celu zidentyfikowania nadreprezentowanych motywów przy użyciu domyślnych parametrów. Do dalszej analizy wykorzystaliśmy motywy pochodzące z programów DREME, MEME i CentriMo, które były istotnymi dopasowaniami (wartość E < 0,05) do znanych motywów. We wszystkich poszukiwaniach motywów wykorzystano znane motywy zarówno z Cis-BP (Weirauch et al., 2014), jak i z bazy danych DAP-seq (O’Malley et al., 2016).

Przypisanie THS do genów

Dla każdego zestawu danych ATAC-seq, THS przypisano do genów za pomocą „TSS” funkcja programu PeakAnnotator 1.4 (Salmon-Divon et al., 2010). Ten program przypisuje każdy pik/THS do najbliższego TSS, czy to w górę czy w dół, i raportuje odległość od środka piku do TSS w oparciu o adnotacje genomu opisane powyżej.

Ślady ATAC-Seq

Aby zbadać ślady skoncentrowane na motywie pod kątem interesujących TF, użyliśmy „dnase_average_profile.py” skrypt w pakiecie pyDNase (Piper et al., 2013). Skrypt był używany w trybie ATAC-seq [”-A” parametr] z innymi parametrami domyślnymi.

Definiowanie witryn docelowych o wysokim stopniu ufności dla czynników transkrypcyjnych

Użyliśmy FIMO (Grant et al., 2011) do identyfikacji występowania motywów dla interesujących TF, a znaczące wystąpienia motywów uznano za te o wartości P < 0,0001. Miejsca wiązania o wysokim poziomie ufności w całym genomie dla danego czynnika transkrypcyjnego zostały zdefiniowane jako miejsca nadwrażliwe na transpozazę w danym typie komórek lub tkankach, które również zawierają istotny motyw dla tego czynnika, a także nakładają się na znany region wzbogacony o ten czynnik z sekwencji DAP lub dane ChIP-seq (patrz również Rysunek Uzupełniający 2, aby uzyskać schematyczny diagram tego procesu).

Analiza GO

Analizy GO wykorzystujące tylko geny Arabidopsis przeprowadzono przy użyciu programu GeneCodis 3.0 (Nogales-Cadenas i wsp., 2009 Tabas-Madrid i wsp., 2012). Zastosowano testy hipergeometryczne z korektą wartości P przy użyciu metody współczynnika fałszywych odkryć (FDR). AgriGO wykorzystano do analizy porównawczej GO list genów wśród gatunków, stosując parametry domyślne (Du et al., 2010 Tian et al., 2017).

Numery akcesyjne

Opisane tutaj surowe i przetworzone dane ATAC-seq zostały zdeponowane w bazie danych NCBI Gene Expression Omnibus pod numerem rekordu GSE101482. Charakterystyki każdego zestawu danych (indywidualny numer dostępu, numery odczytów, charakterystyki mapowania i statystyki THS) są zawarte w Uzupełniającym Zestawie Danych8. W celu porównania z naszymi danymi ATAC-seq z wierzchołków korzeni, wykorzystaliśmy opublikowany zestaw danych DNase-seq z 7-dniowych całych korzeni Arabidopsis (SRX391990), który został wygenerowany z tej samej linii transgenicznej INTACT, która została użyta w naszych eksperymentach (Sullivan et al. al., 2014). Publicznie dostępne zestawy danych ChIP-seq i DAP-seq zostały również wykorzystane do identyfikacji genomowych miejsc wiązania interesujących czynników transkrypcyjnych. Należą do nich ABF3 (AT4G34000 SRX1720080) i MYB44 (AT5G67300 SRX1720040) (Song et al., 2016), HY5 (AT5G11260 SRX1412757), CBF2 (AT4G25470 SRX1412036), MYB77 (AT3G50060 SRX1412453)G3305SR5270AT5 (AT5G11260 SRX1412757) ), NAC083 (AT5G13180 SRX1412546), MYB77 (AT3G50060 SRX1412453), WRKY27 (AT5G52830 SRX1412681) oraz At5g04390 (SRX1412214) (O'Malley et al., 2016). Surowe odczyty z tych plików zostały zmapowane i przetworzone jak opisano powyżej dla danych ATAC-seq, w tym wywołania pików za pomocą pakietu HOMER. Opublikowane dane RNA-seq z komórek włochatych i komórek niewłosych Arabidopsis (Li et al., 2016a) zostały wykorzystane do zdefiniowania transkryptów, które zostały specyficznie wzbogacone w komórce włochatej w porównaniu z komórką niewłosową (geny wzbogacone w komórki włosowate). ) i odwrotnie (geny niewzbogacone o włosy). Zdefiniowaliśmy geny wzbogacone o typ komórek jako te, których transkrypty były co najmniej 2-krotnie bardziej obfite w jednym typie komórek niż w drugim i miały obfitość co najmniej pięciu RPKM w typie komórek o wyższej ekspresji.

Dane uzupełniające

Rysunek uzupełniający 1. Porównanie odczytów zliczeń w regionach wzbogaconych w DNase-seq versus ATAC-seq i Crude-ATAC-seq versus INTACT-ATAC-seq.

Rysunek uzupełniający 2. Analiza odtwarzalności danych ATAC-seq pomidora

Rysunek uzupełniający 3. Analiza sygnałów ATAC-seq w genach ortologicznych.

Rysunek uzupełniający 4. Definiowanie miejsc wiążących o wysokim stopniu ufności i genów docelowych dla każdego TF.

Rysunek uzupełniający 5. Nakładanie się genów docelowych czynnika transkrypcyjnego wierzchołka korzenia.

Rysunek uzupełniający 6. Dziki typ i hy5-1 morfologia wierzchołków korzeni i fenotypy grawitropizmu.

Rysunek uzupełniający 7. Porównanie liczby odczytów ATAC-seq między zestawami danych.

Rysunek uzupełniający 8. Odcisk stopy na motywach TF wzbogaconych o typ komórki w genomowym DNA i zestawach danych ATAC-seq specyficznych dla typu komórki.

Uzupełniający zestaw danych 1 . Charakterystyka THS u Arabidopsis, M. truncatula, ryż i pomidor.

Uzupełniający zestaw danych 2 . Synteniczne geny ortologiczne we wszystkich czterech gatunkach.

Uzupełniający zestaw danych 3 . Zestawy genów Expressolog w czterech gatunkach.

Uzupełniający zestaw danych 4 . Motywy wspólne dla THS u wszystkich gatunków.

Uzupełniający zestaw danych 5 . Przewidywane geny docelowe dla ABF3, CBF2, HY5 i MYB77 we wszystkich czterech gatunkach.

Uzupełniający zestaw danych 6 . Motywy nadmiernie reprezentowane w miejscach nadwrażliwości na transpozazę różnicową wzbogaconą o typ komórek.

Uzupełniający zestaw danych 7 . Miejsca wiązania i geny docelowe dla TF wzbogaconych o typ komórek.

Uzupełniający zestaw danych 8 . Charakterystyka zbioru danych ATAC-seq.


Przykłady komórek

Archebakterie

Jak wspomniano powyżej, archebakterie są bardzo starą formą komórek prokariotycznych. Biolodzy faktycznie umieścili je we własnej „domenie” życia, oddzielonej od innych bakterii.

Kluczowe sposoby, w jakie archebakterie różnią się od innych bakterii, obejmują:

  • Ich błony komórkowe, które są wykonane z rodzaju lipidów, których nie ma ani w bakteriach, ani w eukariotycznych błonach komórkowych.
  • Ich enzymy replikacji DNA, które są bardziej podobne do enzymów eukariontów niż bakterii, sugerują, że bakterie i archae są tylko daleko spokrewnione, a archebakterie mogą być w rzeczywistości bardziej spokrewnione z nami niż ze współczesnymi bakteriami.
  • Niektóre archebakterie mają zdolność do wytwarzania metanu, który jest procesem metabolicznym, którego nie występują w żadnej bakterii ani u eukariontów.

Unikalne właściwości chemiczne Archebakterii pozwalają im żyć w ekstremalnych środowiskach, takich jak przegrzana woda, wyjątkowo słona woda i niektóre środowiska, które są toksyczne dla wszystkich innych form życia.

W ostatnich latach naukowcy byli bardzo podekscytowani odkryciem Lokiarchaeota – rodzaj archebakterii, który dzieli wiele genów z eukariotami, których nigdy wcześniej nie znaleziono w komórkach prokariotycznych!

Obecnie uważa się, że Lokiarchaeota może być naszym najbliższym żyjącym krewnym w prokariotycznym świecie.

Bakteria

Najprawdopodobniej znasz rodzaj bakterii, które mogą wywołać chorobę. Rzeczywiście, powszechne patogeny, takie jak Paciorkowiec oraz Staphylococcus są prokariotycznymi komórkami bakteryjnymi.

Ale istnieje również wiele rodzajów pożytecznych bakterii – w tym te, które rozkładają martwe odpady, aby zamienić bezużyteczne materiały w żyzną glebę, oraz bakterie, które żyją w naszym własnym przewodzie pokarmowym i pomagają nam trawić pokarm.

Komórki bakteryjne można powszechnie znaleźć w symbiotycznych związkach z organizmami wielokomórkowymi, takimi jak my, w glebie i wszędzie tam, gdzie nie są one zbyt ekstremalne, aby mogły żyć!

Komórki roślinne

Komórki roślinne to komórki eukariotyczne, które są częścią wielokomórkowych organizmów fotosyntetycznych.

Komórki roślinne mają organelle chloroplastowe, które zawierają pigmenty, które pochłaniają fotony światła i zbierają energię tych fotonów.

Chloroplasty mają niezwykłą zdolność przekształcania energii świetlnej w paliwo komórkowe i wykorzystują tę energię do pobierania dwutlenku węgla z powietrza i przekształcania go w cukry, które mogą być wykorzystywane przez organizmy żywe jako paliwo lub materiał budowlany.

Oprócz posiadania chloroplastów, komórki roślinne zwykle mają również ścianę komórkową wykonaną ze sztywnych cukrów, aby umożliwić tkankom roślinnym utrzymanie ich pionowych struktur, takich jak liście, łodygi i pnie drzew.

Komórki roślinne mają również zwykłe organelle eukariotyczne, w tym jądro, retikulum endoplazmatyczne i aparat Golgiego.

Komórki zwierzęce

W tym ćwiczeniu spójrzmy na rodzaj komórki zwierzęcej, która ma dla ciebie ogromne znaczenie: twoją własną komórkę wątroby.

Podobnie jak wszystkie komórki zwierzęce, ma mitochondria, które wykonują oddychanie komórkowe, zamieniając tlen i cukier w duże ilości ATP, aby zasilać funkcje komórkowe.

Ma również te same organelle, co większość komórek zwierzęcych: jądro, retikulum endoplazmatyczne, aparat Golgiego itp.

Ale jako część organizmu wielokomórkowego, twoja komórka wątroby również wyraża unikalne geny, które nadają jej unikalne cechy i zdolności.

W szczególności komórki wątroby zawierają enzymy, które rozkładają wiele toksyn, co umożliwia wątrobie oczyszczanie krwi i rozkładanie niebezpiecznych produktów przemiany materii.

Komórka wątroby jest doskonałym przykładem tego, jak organizmy wielokomórkowe mogą być bardziej wydajne dzięki współpracy różnych typów komórek.

Twoje ciało nie mogłoby przetrwać bez komórek wątroby, które rozkładają pewne toksyny i produkty przemiany materii, ale sama komórka wątroby nie mogłaby przetrwać bez komórek nerwowych i mięśniowych, które pomagają ci znaleźć pożywienie, oraz przewodu pokarmowego, który rozkłada to pożywienie na łatwo przyswajalne cukry.

Wszystkie te typy komórek zawierają informacje potrzebne do stworzenia wszystkich innych typów komórek! To po prostu kwestia tego, które geny są włączane lub wyłączane podczas rozwoju.


Dyskusja

W tym badaniu określiliśmy dotychczas najdokładniej mierzony proteom komórki ludzkiej. Zidentyfikowaliśmy >10 000 białek ulegających ekspresji w powszechnie stosowanej linii komórkowej hodowli tkankowej człowieka U2OS i wykazaliśmy, że odkrycie białka osiągnęło nasycenie w zastosowanych warunkach eksperymentalnych, tj. nie oczekuje się, że dalsze pomiary tego samego typu pozwolą zidentyfikować dodatkowe białka. Ponadto opisujemy wielkoskalowe oszacowanie obfitości białek w ludzkiej komórce. My i inni wykazaliśmy wcześniej, że dynamiczny zakres stężeń białek obejmuje więcej niż trzy rzędy wielkości w bakterii L. interrogans (Malmstrom i inni, 2009 ) i pięć rzędów wielkości w drożdżach ( Ghaemmaghami i inni, 2003 de Godoy i inni, 2008 Picotti i inni, 2009 ). W niniejszym badaniu pokazujemy, że liczba kopii białka w ludzkiej komórce obejmuje co najmniej siedem rzędów wielkości. Ten zakres jest podobny do określonego w komórkach myszy ( Schwanhausser i inni, 2011 ). To odkrycie jest ponadto dobrze zgodne z objętością odpowiednich typów komórek, a mianowicie ∼0,2 μm 3 cale L. interrogans (Beck i inni, 2009 ) i około 30 μm 3 cale S. cerevisiae i ∼4000 μm 3 w U2OS, (przy założeniu kulistego kształtu i średnicy 4 i 20 μm odpowiednio dla drożdży i U2OS).

Co ciekawe, bakteria L. interrogans wyraża stosunkowo niewielką liczbę bardzo wysokokopiowanych białek, np. białka układu translacji i fałdowania białek, enzymy metaboliczne oraz składniki ściany komórkowej. Białka te stanowią większość całkowitej masy białka ( Malmstrom i inni, 2009 ) i znaczny ułamek objętości cytoplazmy ( Beck i inni, 2009), natomiast białka funkcjonujące w sygnalizacji, transporcie białek czy szlakach regulacyjnych, m.in. czynniki transkrypcyjne stanowią mniejszość proteomu ilościowego. Aby zbadać, czy to samo dotyczy eukariontów, systematycznie porównywaliśmy cztery dostępne zestawy danych wymienione powyżej (ryc. 3). Arbitralnie pogrupowaliśmy wszystkie kategorie funkcjonalne w trzy główne klasy: (i) podstawowe funkcje komórkowe obejmujące węglowodany, nukleozasady, nukleozydy, nukleotydy, procesy metaboliczne kwasów nukleinowych, lipidy i inne procesy metaboliczne, a także transkrypcję, translację, replikację DNA, transport i inne podstawowe funkcje (ii) funkcje regulacyjne, mianowicie organizacja cytoszkieletu, adhezja komórek, podział komórek, fosforylacja, procesy metaboliczne białek, sygnalizacja, proces rozwojowy, komunikacja komórkowa i inne funkcje regulacyjne oraz (iii) inne. Bakteria L. interrogans poświęca większość swojej masy białkowej (∼75%) na rdzeń, a <25% na funkcje regulacyjne. Natomiast mniej niż połowa analizowanej masy białka U2OS pełni funkcje podstawowe, a 51% pełni funkcje regulacyjne. W szczególności całkowita frakcja białka poświęcona organizacji cytoszkieletu, procesom metabolicznym białek i sygnalizacji jest w dużej mierze rozszerzona w komórkach U2OS, podczas gdy inne procesy, z wyjątkiem ośrodkowych procesów metabolicznych, są w znacznym stopniu zredukowane. Bardzo podobny obraz pojawił się w przypadku komórek myszy. Drożdże na pierwszy rzut oka wydają się nie podążać za tym trendem. Poświęca jednak tylko jedną trzecią całkowitej masy białka na metabolizm, podczas gdy odpowiednia liczba wynosi >50% in L. interrogans. Jako jednokomórkowy organizm eukariotyczny drożdże powiększają znaczną część swojej masy białkowej (około 30%) podczas translacji i sortowania białek. Podsumowując, analiza ta wskazuje, że część całkowitej masy białka poświęcona funkcjom regulacyjnym jest w dużym stopniu rozszerzona u wyższych eukariontów.

W gatunkach wielokomórkowych rodziny domen pełniące funkcje regulatorowe częściej podlegały ekspansji genów niż domeny pełniące funkcje podstawowe ( Vogel i Chothia, 2006 Ori i inni, 2011 ). Dlatego zbadaliśmy, wykorzystując dane ilościowe wygenerowane w tym badaniu, w jaki sposób ten efekt jest powiązany z obfitością białek. My i inni wykazaliśmy, że obfitość białek jest powiązana z funkcją, a mianowicie, że białka o dużej ilości są często odpowiedzialne za podstawowe funkcje, takie jak metabolizm energii i translacja, podczas gdy funkcje regulacyjne, takie jak fosforylacja białek i regulacja transkrypcji, są często realizowane przez mało obfite białka (Rysunek 2B i C Tabela uzupełniająca S3 Schwanhausser i inni, 2011 ). Istnieje kilka linii dowodów sugerujących, że obfitość białka jest również powiązana z ewolucją. Wykazano wcześniej, że białka o wysokiej ekspresji ewoluują wolniej niż białka wyrażane na niższych poziomach, tj. wykazują zmniejszoną rozbieżność białek na poziomie sekwencji ( PAL i inni, 2001 Subramanian i Kumar, 2004), podczas gdy białka o niskiej liczebności wykazują zmniejszoną konserwację sekwencji u organizmów (Schrimpf i inni, 2009 ). Wykazano ponadto, że rodziny białek wykazujące mniejszą zmienność liczebności między gatunkami rzadziej ulegają duplikacji genów i że zmienność liczebności skaluje się odwrotnie z ekspresją białka ( Weiss i inni, 2010 ). Te odkrycia pośrednio sugerują związek między obfitością białek a duplikacją genów. Nasze dane potwierdzają tę hipotezę. Pokazujemy ujemną korelację między częstotliwością rodzin domen w ludzkim genomie a ich medianą liczby kopii na komórkę (Rysunek 2D Rysunek uzupełniający S4A Tabela uzupełniająca S5). Pokazujemy również, że białka, które mają większą liczbę paralogów, mają tendencję do ekspresji przy mniejszej liczbie kopii (rysunek uzupełniający S4B). Odkrycia te podkreślają pogląd, że duplikacje genów kodujących białka wyrażane na wysokim poziomie są utrzymywane w ramach selekcji oczyszczającej, prawdopodobnie z powodu ograniczeń energetycznych (Lane i Martin, 2010) lub wyższego ryzyka agregacji białek i toksyczności (Drummond i inni, 2005 ). Co ciekawe, niedawne badanie porównujące względny poziom ekspresji produktów genów trzech ludzkich linii komórkowych na poziomie proteomu i transkryptomu wykazało, że białka zaangażowane w funkcje regulacyjne częściej różnią się poziomem ekspresji w porównaniu z funkcjami podstawowymi ( Lundberg i inni, 2010 ). Można zatem spekulować, że duża część ludzkiego proteomu ulegająca ekspresji w niskiej liczbie kopii i zaangażowana w funkcję regulacyjną była głównym źródłem innowacji biologicznych podczas ewolucji. Hipotezę tę wspierają następujące dowody: (i) rodziny domen występujące w białkach o niskiej liczebności są znacznie bardziej skorelowane ze wzrostem złożoności organizmu niż te obecne w białkach o wysokiej ekspresji (P=7,8e−9, jednostronny test sumy rang Wilcoxona Rysunek uzupełniający S4C Tabela uzupełniająca S5). (ii) Obfitość białek biorących udział w podstawowych funkcjach jest silniej zachowana wśród gatunków niż w przypadku białek zaangażowanych w funkcje regulacyjne ( Schrimpf i inni, 2009 ). (iii) Frakcja proteomu poświęcona funkcjom regulacyjnym znacznie wzrosła w toku ewolucji (Rysunek 3).

Białka regulacyjne, często o niskiej liczebności, odgrywają kluczową rolę w pośredniczeniu w integracji bodźców zewnętrznych z wewnętrznym stanem komórki i kontrolują podstawowe procesy biologiczne, takie jak proliferacja, migracja i różnicowanie komórek. Niedawno wykazano dla komórek mysich, że białka i mRNA o małej ilości są mniej stabilne niż te w dużej ilości ( Schwanhausser i inni, 2011 ). Dlatego ekspresja w małej liczbie kopii może stanowić skuteczny sposób dynamicznej regulacji poprzez translację i szybki obrót. Odwrotnie, podstawowe funkcje komórek mogą być skuteczniej regulowane innymi sposobami niż degradacja.

Aktualnymi ograniczeniami wskaźników obfitości białek określonych na podstawie danych MS są dostępność PTP, które odpowiadają za mnogość izoform w rodzinach białek oraz skłonność do białek, które wytwarzają mniej dobrze zjonizujących peptydów. W szczególności analiza GO ujawnia niedostateczną reprezentację białek transbłonowych w zidentyfikowanym proteomie (tabela uzupełniająca S4). Taki efekt zaobserwowano już wcześniej ( Schrimpf i inni, 2009 ) i jest prawdopodobnie wynikiem zmniejszonej dostępności białek błonowych do analizy MS, chociaż użyliśmy detergentu kompatybilnego z MS podczas przygotowywania próbki. To odkrycie jest dodatkowo podkreślone przez fakt, że znaczna część mRNA o dużej liczbie nieodkrytych na poziomie białka koduje białka błonowe. Poza tym rozkład kategorii funkcjonalnych na poziomie genomu i proteomu jest dość podobny, co sugeruje wysokie pokrycie proteomu i że założenie o równomiernej ekstrakcji białek jest prawdziwe dla większości białek, ale nie dla białek błonowych. Przedstawiamy wykonalność ustalenia skali obfitości białek w bardzo złożonych proteomach z precyzją, która prawdopodobnie jest wystarczająca, aby umożliwić analizę systemów biologicznych za pomocą modelowania obliczeniowego. Metoda zastosowana w tym badaniu ma zastosowanie głównie do większości wszystkich typów komórek i może być użyteczna do badania wielu stanów komórkowych i organizmów w przyszłości.


Materiały i metody

Komórki, konstrukt DNA, przeciwciała i odczynniki

We wszystkich doświadczeniach stosowano komórki COS-7 (African Green Monkey American Type Culture Collection, Rockville, MD). Utrzymywano je w DME (Biofluids, Rockville, MD) uzupełnionym 10% FBS, 2 mM glutaminą, 100 U/ml penicyliny i 100 μg/ml streptomycyny w 37°C w 5% CO2 inkubator. Klonowanie i ekspresja VSVG-GFP są takie, jak opisano wcześniej (Presley i wsp., 1997). W skrócie, wektor pCDM 8.1 niosący VSVG-ts045 z EGFP (Clontech, Palo Alto, CA) bezpośrednio połączony z końcem karboksylowym eksprymowano w komórkach COS-7 z zastosowaniem elektroporacji. Komórki eksprymujące VSVG-GFP hodowano na 13-mm szklanych szkiełkach nakrywkowych lub w komorowych szkiełkach nakrywkowych (Lab Tek, Naperville, IL). Zobrazowano je w 2–3 ml RPMI bez czerwieni fenolowej (Biofluids), która zawierała 20 mM bufor Hepes, pH 7,4, 150 μg/ml cykloheksymidu i 20% płodowej surowicy cielęcej. Stężenie cykloheksymidu było wystarczające do zahamowania syntezy białek o 90% (Cole i wsp., 1998). Wszystkie leki zakupiono od Sigma Chemical Co (St. Louis, MO). Użyto następujących przeciwciał: króliczej poliklonalnej surowicy odpornościowej na AP1 i furynę (J. Bonifacino, National Institite of Child Health and Human Development [NICHD], National Institutes of Health [NIH]) króliczej poliklonalnej surowicy odpornościowej na GM130 (G. Warren, Imperial Cancer Research Fund, Londyn, Wielka Brytania) króliczej poliklonalnej surowicy odpornościowej na β-COP i mysich przeciwciał monoklonalnych przeciw hemaglutyninie (HA) (HA.11 Berkeley Antibody, Richmond, CA). Przeciwciała drugorzędowe skoniugowane z rodaminą zakupiono z Southern Biotechnology (Birmingham, AL).

Mikroskopia fluorescencyjna i przetwarzanie obrazu

Komórki obrazowano w temperaturze 40° lub 32°C przy użyciu aparatu Zeiss LSM 410 (Carl Zeiss Inc., Thornwood, NY) z obiektywem imersyjnym 100x Zeiss PlanApochromat NA 1.4 lub fotomikroskopem Zeiss model 3 z aparatem Nikon Planapo 60x obiektyw immersyjny NA 1.4 w oleju wyposażony w kamerę VE1000SIT ze wzmocnioną krzemem (SIT) (Dage-MTI, Michigan City, IN) połączoną z procesorem obrazu Argus-10 (Hamamatsu, Hamamatsu City, Japonia). Temperaturę kontrolowano za pomocą inkubatora ze strumieniem powietrza Nevtek (Burnsville, VA). W mikroskopie konfokalnym cząsteczki GFP wzbudzono linią 488 lasera kryptonowo-argonowego i zobrazowano za pomocą filtra pasmowego 515–540. Przeciwciała znakowane rodaminą wzbudzano linią 568 i obrazowano na filtrze o długim przejściu 590. Do obrazowania komórek z ekspresją VSVG–GFP w systemie wideomikroskopu SIT zastosowano zestawy filtrów do konwencjonalnego obrazowania fluoresceinowego oraz filtr o neutralnej gęstości. Obrazy z kamery SIT zostały zdigitalizowane i zebrane bezpośrednio do pamięci RAM (8–15 klatek/s) za pomocą Apple Power Macintosh 9600/200 wyposażonego w opartą na PCI kartę do przechwytywania wideo LG-5 (Scion, Frederick, MD) i 768 MB pamięci RAM. Przechwytywanie, przetwarzanie obrazu oraz automatyczne i ręczne pozyskiwanie danych przeprowadzono przy użyciu NIH Image 1.62 (Wayne Rasband Analytics, Research Services Branch, NIH, Bethesda, MD). Eksport do analogowego wideo przeprowadzono za pomocą tablicy do przechwytywania obrazów Targa 1000 (Truevision, Santa Clara, CA).

Konfokalna akwizycja obrazu do analizy kinetycznej i oceny ilościowej

Konfokalne obrazy cyfrowe (patrz ryc. 1–3) zebrano przy użyciu obiektywu imersyjnego w oleju Zeiss Plan-Neofluor 25x NA 0,8 z otworkiem 150 (co odpowiada ogniskowej ∼22 μm) w celu utrzymania całej komórki w obrębie środek głębi ogniskowej, a tym samym zminimalizować zmiany wydajności fluorescencji spowodowane odsunięciem VSVG-GFP od płaszczyzny ogniskowania. Obrazy poklatkowe były rejestrowane w odstępach 30–120 s przy 30–50% maksymalnej mocy lasera i 99% tłumieniu. Połączenie niskiej energii, wysokiego tłumienia i mniej skoncentrowanej wiązki lasera wzbudzającego spowodowanego przez obiektyw o niskim NA skutkowało znikomym fotowybielaniem podczas powtarzanego obrazowania przez ponad 3 godziny. Tak więc komórki eksprymujące VSVG-GFP inkubowane przez 20 godzin w 40°C i obrazowane przez 3 godziny w obecności brefeldyny A (5 μg/ml) i cykloheksymidu (150 μg/ml) nie wykazywały zmian w całkowitej intensywności fluorescencji. Średnie intensywności dla całkowitej fluorescencji komórkowej i fluorescencji związanej z aparatem Golgiego zmierzono przy użyciu oprogramowania NIH Image 1.62 po odjęciu tła na zewnątrz komórki. Nakładanie się ER i błony plazmatycznej w interesujących regionach aparatu Golgiego (ROI) uwzględniono przez dopasowanie zmierzonych wartości intensywności fluorescencji aparatu Golgiego do przedziału aparatu Golgiego plus niewielki udział ER plus błona plazmatyczna. Wielkości tych małych wkładów oszacowano bezpośrednio przez dopasowanie najmniejszych kwadratów danych eksperymentalnych.

Konwersja intensywności fluorescencji na liczbę cząsteczek GFP

Liczbę cząsteczek VSVG-GFP wyrażonych w pojedynczej komórce oszacowano przez porównanie całkowitej wartości intensywności pikseli komórkowych na obrazach cyfrowych z krzywą standardową wygenerowaną z roztworów o znanych stężeniach rekombinowanego oczyszczonego GFP (Clontech) o identycznej mocy, tłumieniu, kontraście, oraz ustawienia jasności w mikroskopie konfokalnym (Lippincott-Schwartz i wsp., 1998). Fluorescencję w obszarze ROI o wielkości 100 μm 2 wykreślono następnie w funkcji liczby cząsteczek GFP oszacowanej jako mieszczące się w interesującym regionie objętościowym, określonej przez iloczyn obszaru 100 μm 2 i maksimum połowy pełnej szerokości (FWHM). FWHM to odległość w kierunku z pomiędzy płaszczyznami, gdzie intensywność wynosi 50% w płaszczyźnie ostrości. Można go obliczyć jak w równaniu (uzyskanym z instrukcji mikroskopu konfokalnego Zeiss),

gdzie λ1 = długość fali emisji (nm) λ2 = długość fali wzbudzenia (nm) Nie dotyczy = apertura numeryczna m = powiększenie n = współczynnik załamania ośrodka immersyjnego P = ustawienie otworka w jednostkach cyfrowych. Podczas akwizycji danych do analizy kinetycznej zastosowano ustawienie otworków 9,84, co dało FWHM 22 μm. Wykresy cząsteczek GFP w funkcji całkowitej fluorescencji (suma wartości pikseli w obszarze) zostały dokładnie dopasowane do funkcji liniowej w zakresie stężeń GFP w całym artykule.

Przy generowaniu krzywej standardowej założono, że FWHM aproksymuje z-wymiarową grubość próbki, która ma udział w sygnale fluorescencji, oraz że skuteczność wykrywania fluorescencji w objętości jest stała. Trafność tych założeń została potwierdzona obrazowaniem kulistych kropel roztworu GFP w oleju o średnicach mniejszych niż FWHM, ale także w zakresie analizowanych komórek i organelli. Stosując krzywą standardową do żywych komórek, założyliśmy, że parametry fluorescencji (tj. wydajność kwantowa, skuteczność wykrywania i proporcja prawidłowo sfałdowanych i fluorescencyjnych cząsteczek GFP) były podobne dla chimer GFP w komórkach i GFP w roztworze wodnym (Piston et al. al., 1998).

Modelowanie kinetyczne ścieżki wydzielniczej

Aby wyodrębnić informacje z poklatkowych obrazów cyfrowych, do mikroskopii fluorescencyjnej dostosowano standardowe techniki analizy kinetycznej. Zastosowany model pokazano na rys. 2,Ai zawiera siedem parametrów, których wartości można określić na podstawie danych fluorescencyjnych. Istnieją trzy niezależne stałe szybkości: KER jest efektywną ogólną stałą szybkości dla dwuprzedziałowego ER, która została użyta do przybliżenia opóźnienia związanego ze składaniem, sortowaniem i eksportem VSVG Kg charakteryzuje kroki ograniczające prędkość między przybyciem na Golgiego a przybyciem na PM, oraz KPO POŁUDNIU przedstawia etapy ograniczające szybkość między dotarciem do PM a degradacją lizosomalną. Istnieją również trzy wydajności próbkowania i jedna wartość początkowa dla VSVG-GFP w ER przy przejściu na dopuszczalną temperaturę. Wartości parametrów ważnych fizjologicznie podano w wynikach (tabela I). Niewielka część ER i PM jest pobierana z obszaru Golgiego ROI po prostu dlatego, że część tych błon pokrywa obszar Golgiego. Stwierdzono, że te zanieczyszczające frakcje wynosiły 16,2 ± 8,8 (SD)% dla zanieczyszczenia ER fluorescencji Golgiego i 15,5 ± 9,8 (SD)% dla zanieczyszczenia PM fluorescencji Golgiego. Liczby te zostały uzyskane przez dopasowanie metodą najmniejszych kwadratów i reprezentują ułamki ER i PM, które mieszczą się w ramach ROI aparatu Golgiego przedstawionego na ryc. 1. b. Stwierdzono, że wydajność próbkowania dla samej fluorescencji aparatu Golgiego wynosiła 86,5 ± 24,7 (SD)% i reprezentuje wydajność, z jaką światło było zbierane z przedziału aparatu Golgiego.Podejrzewamy, że jest to mniej niż 100% ze względu na złożoną geometrię aparatu Golgiego, możliwość, że istnieje znaczna grubość aparatu Golgiego flankującego płaszczyznę ogniskową lub ponieważ cząsteczki fluorescencyjne są ciaśniej upakowane w aparacie Golgiego, co powoduje wygaszenie sygnału fluorescencyjnego . W przeciwieństwie do tego, gdy cała komórka jest traktowana jako obszar zainteresowania, zebrano całą fluorescencję ER (wydajność próbkowania, 100%), a uzyskana wydajność próbkowania błony plazmatycznej wynosiła 100% (mierzona w całej komórce, nie tylko aparat Golgiego) w prawie wszystkich analizowanych komórkach (ogólna średnia: 97,8 ± 6,2 [SD]%).

Te przedziały i procesy zostały przetłumaczone na odpowiedni system równań różniczkowych zwyczajnych bilansu masy przy użyciu oprogramowania SAAM II (v 1.1) (SAAM Institute, Seattle, WA) (Foster i in., 1994). Dwa zestawy danych, całkowita fluorescencja komórek i fluorescencja Golgiego, dopasowywano jednocześnie stosując uogólnioną nieliniową procedurę optymalizacji najmniejszych kwadratów (Bell i wsp., 1996) w oprogramowaniu SAAM II w celu ilościowego określenia stałych szybkości i wydajności próbkowania dla każdej komórki. Innymi słowy, dla każdej komórki te same stałe szybkości i wydajności próbkowania odpowiadają dla obu zestawów danych. To jednoczesne dopasowanie jest niezbędne, nie można go oszacować KER oraz Kg z przebiegu czasowego samej fluorescencji Golgiego. Średnie czasy przebywania podane w wynikach są obliczane jako odwrotność stałej efektywnej szybkości wychodzenia dla danego przedziału komórkowego. Osiągnięto zbieżność dla wszystkich zestawów danych, tylko sporadycznie (10 z 67 analizowanych komórek) wymagało włączenia a priori terminu bayesowskiego opartego na całej populacji. Stałe szybkości i wydajności próbkowania wszystkich poszczególnych komórek łatwo oszacowano na podstawie danych eksperymentalnych. Podsumowując dla wszystkich komórek w Tabeli I, średnie współczynniki zmienności wynosiły 2,1% dla KER, 2,5% za Kg, 5,0% za KPO POŁUDNIU, 2,8% za wydajność próbkowania Golgiego, 4,3% za wkład ER w Golgi ROI i 3,5% za udział PM w Golgiego ROI. Oznacza to, że wszystkie poszczególne wartości, które składają się na średnią i odchylenia standardowe podane w wynikach, zostały określone z precyzją. Istotność statystyczną różnic pomiędzy grupami eksperymentalnymi (podanymi w tabeli I) oceniano za pomocą standardu T test dla populacji o nierównej wariancji. Testowanie hipotez modelowych z zastosowaniem praw współczynnika Michaelisa-Mentena zostało przeprowadzone przy użyciu SAMMII (Foster i in., 1994).

Modelowanie kinetyczne PGCs

Te same techniki i oprogramowanie zastosowano do analizy danych o ruchu post-Golgiego za pośrednictwem PGCs, pokazanych na rys. 7. W tym przypadku model (patrz rys. 7 C) zawiera cztery parametry, których wartości można określić na podstawie jednoczesnego dopasowania fluorescencji PGC i całkowitej fluorescencji w ROI. Te parametry to początkowa fluorescencja po wybielaniu w kompartmencie aparatu Golgiego, stała szybkości rozdzielająca VSVG-GFP do PGCs, stała szybkości rozdzielająca VSVG-GFP do drugiej ścieżki oraz czas przebywania VSVG-GFP w PGCs. Optymalizator metodą najmniejszych kwadratów określił te parametry przy współczynnikach zmienności odpowiednio 16,8, 19,6, 21,5 i 7,9%. Co ciekawe, optymalizator nie mógł określić czasu przebywania dla VSVG–GFP docierającego do ROI inną ścieżką, z wyjątkiem wymagania, aby był on znacznie (co najmniej 17-krotnie) krótszy niż czas przebywania w PGCs. Sugeruje to, że drugi szlak prawdopodobnie nie będzie reprezentował produktów pośrednich post-Golgiego, które przemieszczają się przez ścieżki mikrotubularne (ponieważ ich czasy przebywania byłyby podobne do PGCs), a zamiast tego może reprezentować VSVG-GFP, który dyfundował do ROI z regionów PM poza ROI. Wyprowadzone parametry, takie jak udział ruchu post-Golgiego rozprowadzanego do mierzonych PGCs, udział rozprowadzany do drugiego szlaku oraz czas przebywania w PGCs zostały określone przy współczynnikach zmienności odpowiednio 5,2, 8,2 i 7,9%. Wydajność próbkowania przyjęto jako 100% dla wszystkich struktur w tym obszarze ROI, ponieważ znajdują się one w najbardziej peryferyjnej i spłaszczonej części obrazowanej komórki.


Linie komórkowe: typy, nazewnictwo, selekcja i konserwacja (ze statystykami)

Rozwój i różne inne aspekty kultury pierwotnej zostały opisane powyżej. Termin linia komórkowa odnosi się do propagacji hodowli po pierwszej podhodowli.

Innymi słowy, po podhodowaniu pierwotnej hodowli staje się ona linią komórkową. Dana linia komórkowa zawiera kilka linii komórkowych o podobnych lub odrębnych fenotypach.

Możliwe jest wybranie konkretnej linii komórkowej przez klonowanie lub fizyczne rozdzielenie komórek lub inną metodą selekcji. Taka linia komórkowa uzyskana przez selekcję lub klonowanie jest określana jako szczep komórkowy. Szczepy komórkowe nie mają nieskończonego życia, ponieważ umierają po pewnych podziałach.

Rodzaje linii komórkowych:

Skończone linie komórkowe :

Komórki w hodowli dzielą się tylko ograniczoną liczbę razy, zanim ich tempo wzrostu spadnie i ostatecznie umrą. Linie komórkowe o ograniczonej długości życia w hodowli są określane jako skończone linie komórkowe. Komórki zwykle dzielą się od 20 do 100 razy (tj. stanowią 20-100 podwojeń populacji) przed wyginięciem. Rzeczywista liczba podwojeń zależy od gatunku, różnic w linii komórkowej, warunków hodowli itp. Komórki ludzkie dzielą się na ogół 50-100 razy, podczas gdy komórki mysie dzielą się 30-50 razy przed śmiercią.

Ciągłe linie komórkowe :

Kilka komórek w hodowli może uzyskać inną morfologię i ulec zmianie. Takie komórki są zdolne do szybszego wzrostu, co skutkuje niezależną hodowlą. Potomstwo pochodzące z tych zmienionych komórek ma nieograniczone życie (w przeciwieństwie do szczepów komórkowych, z których się wywodzi). Są one oznaczone jako ciągłe linie komórkowe.

Ciągłe linie komórkowe są transformowane, nieśmiertelne i rakotwórcze. Transformowane komórki dla ciągłych linii komórkowych można otrzymać z normalnych pierwotnych hodowli komórkowych (lub szczepów komórek) przez traktowanie ich chemicznymi czynnikami rakotwórczymi lub przez infekcję wirusami onkogennymi. Na stole. 36,1 porównuje się różne właściwości skończonych linii komórkowych i ciągłych linii komórkowych.

Poniżej wyjaśniono najczęściej używane terminy w odniesieniu do linii komórkowych.

Dzielnik stosunku rozcieńczenia hodowli komórkowej w podhodowli. Na przykład, gdy każda subkultura podzieliła kulturę na połowę, stosunek podziału wynosi 1: 2.

Jest to liczba przypadków, w których kultura została poddana subkulturze.

Odnosi się do liczby podwojeń, jakie przeszła populacja komórek. Należy zauważyć, że numer przejścia i numer pokolenia nie są takie same i są zupełnie różne.

Nomenklatura linii komórkowych:

Powszechną praktyką jest nadawanie kodów lub oznaczeń liniom komórkowym w celu ich identyfikacji. Na przykład kod NHB 2-1 reprezentuje linię komórkową z normalnego ludzkiego mózgu, po której następuje szczep komórkowy (lub numer linii komórkowej) 2 i klon numer 1. Zwykłą praktyką w laboratorium hodowlanym jest prowadzenie dziennika lub komputerowej bazy danych plik dla każdej z linii komórkowych.

Podczas nazewnictwa linii komórkowych bezwzględnie konieczne jest zapewnienie, że każde oznaczenie linii komórkowej jest niepowtarzalne, tak aby nie było pomyłek, gdy raporty są podawane w literaturze. Ponadto w momencie publikacji linia komórkowa powinna być poprzedzona kodem oznaczającym laboratorium, z którego została uzyskana, np. NCI dla National Cancer Institute, Wl dla Instytutu Wistar.

Powszechnie używane linie komórkowe:

Istnieją tysiące linii komórkowych opracowanych w różnych laboratoriach na całym świecie. Wybraną listę niektórych powszechnie stosowanych linii komórkowych wraz z ich pochodzeniem, morfologią i innymi cechami podano w tabeli. 36.2.

Wybór linii komórkowych:

Przy wyborze linii komórkowej należy wziąć pod uwagę kilka czynników.

Niektóre z nich zostały krótko opisane:

Ogólnie rzecz biorąc, linie komórek innych niż ludzkie mają mniejsze ryzyko zagrożeń biologicznych, dlatego są preferowane. Jednak przy ekstrapolacji danych na ludzi należy wziąć pod uwagę różnice gatunkowe.

2. Skończone lub ciągłe linie komórkowe:

Preferowane są hodowle z ciągłymi liniami komórkowymi, ponieważ rosną szybciej, są łatwe w klonowaniu i utrzymaniu oraz dają wyższą wydajność. Wątpliwe jest jednak, czy ciągłe linie komórkowe wyrażają właściwe i właściwe funkcje komórek. Dlatego niektórzy pracownicy sugerują stosowanie skończonych linii komórkowych, chociaż jest to trudne.

3. Komórki normalne lub transformowane:

Transformowane komórki są korzystne, ponieważ są unieśmiertelnione i szybko rosną.

Ważna jest również szybka dostępność linii komórkowych. Czasami może być konieczne opracowanie określonej linii komórkowej w laboratorium.

5. Charakterystyka wzrostu:

Należy wziąć pod uwagę następujące parametry wzrostu:

i. Czas podwojenia populacji

ii. Możliwość wzrostu w zawieszeniu

iii. Gęstość nasycenia (wydajność na kolbę)

Ważna jest stabilność linii komórkowej ze szczególnym uwzględnieniem klonowania, generowanie odpowiedniego zapasu i przechowywanie.

7. Ekspresja fenotypowa:

Ważne jest, aby linie komórkowe posiadały komórki o właściwej ekspresji fenotypowej.

Utrzymanie kultur komórkowych:

Dla rutynowego i dobrego utrzymania linii komórkowych w hodowli (hodowla pierwotna lub subkultura) bardzo ważne jest badanie morfologii komórek i okresowa zmiana pożywki.

Morfologia komórki:

Komórki w hodowli muszą być regularnie badane w celu sprawdzenia stanu zdrowia komórek, braku kontaminacji i innych poważnych komplikacji (toksyny w pożywce, nieodpowiednie składniki odżywcze itp.).

Wymiana medium:

Okresowa zmiana pożywki jest wymagana do utrzymania linii komórkowych w hodowli, niezależnie od tego, czy komórki proliferują, czy nie proliferują. W przypadku komórek proliferujących pożywkę należy zmieniać częściej w porównaniu z komórkami nieproliferującymi. Odstęp czasowy pomiędzy zmianami pożywki zależy od tempa wzrostu komórek i metabolizmu.

Na przykład, w przypadku szybko rosnących komórek transformowanych (np. HeLa), pożywkę należy zmieniać dwa razy w tygodniu, podczas gdy w przypadku wolno rosnących komórek nietransformowanych (np. IMR-90) pożywkę można zmieniać raz w tygodniu. Ponadto, w przypadku komórek szybko proliferujących, podhodowle należy przeprowadzać częściej niż w przypadku komórek wolno rosnących.

Przy wymianie nośnika należy wziąć pod uwagę następujące czynniki:

Hodowle o wysokim stężeniu komórek wykorzystują składniki odżywcze w pożywce szybciej niż te o niskim stężeniu, stąd też wymagana jest częstsza wymiana pożywki na tę pierwszą.

Spadek pH pożywki wskazuje na zmianę pożywki. Większość komórek może rosnąć optymalnie przy pH 7,0 i prawie przestają rosnąć, gdy pH spada do 6,5. Dalszy spadek pH (pomiędzy 6,5 a 6,0) może spowodować utratę żywotności komórek.

Szybkość spadku pH jest ogólnie szacowana dla każdej linii komórkowej z wybraną pożywką. Jeśli spadek jest mniejszy niż 0,1 jednostki pH dziennie, nie ma szkody, nawet jeśli pożywka nie zostanie natychmiast zmieniona. Ale gdy spadek wynosi 0,4 jednostek pH na dzień, podłoże należy natychmiast zmienić.

Komórki embrionalne, transformowane komórki i ciągłe linie komórkowe rosną szybko i wymagają częstszych podhodowli i zmiany pożywki. Jest to w przeciwieństwie do normalnych komórek, które rosną powoli.

4. Zmiany morfologiczne:

Częste badanie morfologii komórek jest bardzo ważne w technikach hodowli. Każde pogorszenie morfologii komórek może prowadzić do nieodwracalnego uszkodzenia komórek. Należy dokonać zmiany podłoża, aby całkowicie uniknąć ryzyka uszkodzenia komórek.


Obejrzyj wideo: W jaki sposób w komórkach powstają białka (Sierpień 2022).