Spørsmål:
Hvorfor velge CNN for en varianter
Claudiu Creanga
2018-04-19 19:21:39 UTC
view on stackexchange narkive permalink

Google ga ut sin variant innringer DeepVariant som vant den høyeste SNP-ytelsesprisen i Precision FDA Truth challenge (99,999% nøyaktighet).

Fra den tilknyttede github repo, ser vi at DeepVariant er en CNN, vi gir bilder av lesningene som en inngang og trener nevrale nettverk med en stokastisk gradientavstigningsalgoritme.

For meg er dette uintuitivt. Hvorfor bruke bilder av lese når du allerede har dataene for lesing?

https://en.wikipedia.org/wiki/Law_of_the_instrument
Hvor så du at de trenger bilder? [Dokumentasjonen] (https://github.com/google/deepvariant/blob/r0.6/docs/deepvariant-details.md) sier at inngangen er en bam-fil, akkurat som alle andre som ringer.
@terdon Images (av pileups, selvfølgelig) er nevnt [i fortrykket] (https://www.biorxiv.org/content/early/2018/03/20/092890). Jeg tror de også bruker Inception CNN, som er mye brukt i bildebehandling. Jeg tror mange glemmer at bilder bare er matriser.
@terdon Det ser ut til at den første versjonen var på bilder: `` Vi har også gjort en rekke forbedringer av metodikken. Den største endringen var å bevege seg vekk fra RGB-kodede (3-kanals) pileup-bilder og i stedet representere de justerte lesedataene ved hjelp av et flerkanals tensor-datalayout. 'Og nå bruker de noe annet. Takk skal du ha!
Som @DevonRyan allerede har sagt, er dette ikke bilder i seg selv. Fra maskinens synspunkt er et bilde bare en haug med matriser (en per fargekanal). Jeg vil si at dette bare er et eksempel på dårlig / forvirrende bruk av terminologi.
To svar:
Devon Ryan
2018-04-19 19:37:21 UTC
view on stackexchange narkive permalink

Det er mer "bilder av leser" i stedet for faktiske bilder av leser. I virkeligheten mates de i en pileup, som bare er en matrise med bokstaver eller tall (du kan selvfølgelig visualisere dette som et bilde). Dette er mer tydelig hvis du ser på en av deres eksempler på python-notatbøker, CNN er populære i bildebehandlingsfeltet, men på slutten av dagen er bilder bare store verdimatrikser, så når som helst du kan konverter inputene dine til et slikt format, så kan en CNN være nyttig (forutsatt at du har tilstrekkelig opplæringsdata og noen GPUer til å kaste på ting).

Jeg synes svaret er forvirrende: sier du at CNN * ikke * mates bilder? Fordi måten Google beskriver DeepVariant på, skaper de faktisk pileup-bildedata og legger det gjennom CNN.
Det er ikke et bilde, det er et "bilde". DeepVariant er litt tvetydige på det punktet, men på slutten av dagen er det en flerdimensjonal verdigrunnlag (forholdet mellom det og et bilde er åpenbart).
user172818
2018-04-20 03:47:30 UTC
view on stackexchange narkive permalink

Hvorfor bruke bilder av lesninger når du allerede har lesedataene?

Nevrale nettverk tar en eller flere N-dimensjonsarrayer (andre matriser ) som input; de kan ikke ta vilkårlige former for data. For å mate avlesninger og justering av dem i nettverket, må du kode dem som n-d matriser. Hvis du ignorerer "farger" for nå, er et greit valg et (windowLength, readDepth) 2D-array som du ser i en justeringsleser - det er et bilde. "Fargene" i dette bildet kalles ofte "kanaler" eller "funksjoner" i deep learning (DL). De representerer basetyper og basiskvalitet i deepVariant. Til slutt får du et (windowLength, readDepth, nFeatures) 3D-array som input. Dette er den mest naturlige kodingen for forskere fra DL. arkitektur for slike (høyde, bredde, nKanaler) 3D-arrays som input. Lesjusteringer er akkurat det.


På et historisk notat ble deepVariant først bygget på Googles nå avskaffede DisBelief-rammeverk som bare tar RGB-bilder som input. De måtte presse alle typer informasjon i tre fargekanaler. Nå med TensorFlow kan et bilde ha et vilkårlig antall fargekanaler. Dette forenkler implementeringen og forbedrer nøyaktigheten. I tillegg til dette bildet tar deepVariant også annen informasjon som input.



Denne spørsmålet ble automatisk oversatt fra engelsk.Det opprinnelige innholdet er tilgjengelig på stackexchange, som vi takker for cc by-sa 3.0-lisensen den distribueres under.
Loading...