Fråga:
Tekniskt, varför är fokusområdet suddigare ut när man använder en större bländare?
Richard Rodriguez
2011-06-25 17:33:27 UTC
view on stackexchange narkive permalink

Jag undrar, tekniskt, varför och hur blir fokusområdena suddigare när man använder en större bländare. Jag tror att det skulle hjälpa mycket om jag presenterade ett problem som har gjort mig nötter länge:

Jag har läst att det mänskliga ögats f-nummer varierar från ca f / 8.3 i mycket starkt ljus till cirka f / 2,1 i mörkret. Men utifrån vad jag har testat ser jag alltid områden som inte är i fokus med samma mängd suddighet.

Vilket får mig att fråga: hur fungerar den här bländaren, varför skapar den en suddighet ur teknisk synvinkel, och gäller det också för ögonen, eller är det bara ett "misslyckande" i kameralinserna som vi har kommit till och aldrig ville "fixa"?

När det gäller att "fixa" problemet, ta en titt på detta: http://blog.lytro.com/
Jag har just provat ditt lilla experiment och jag kan inte säga att jag ser samma mängd bakgrundssuddighet i alla fall. I en mörkare scen, i detta fall min källare, verkar bakgrunden definitivt mer suddig än när jag gör detta test i det starkt solbelysta utomhus. Skillnaden är lite subtil och liten, men så är det fysiska bländarområdet för det mänskliga ögat ... Jag skulle inte förvänta mig de radikala förändringar du får från en 50mm f / 1.4-lins när du stannar ner till f / 4.
Hej där och välkommen till webbplatsen. :) Jag undrar om du kan klargöra: frågar du * varför * en stor bländare orsakar ett kortare skärpedjup (dvs. du letar efter ett tekniskt svar) eller letar du bara efter exempel på hur effekten ser ut?
@ Mark Whitaker: Tack :-) Jag letar efter ett tekniskt svar ... att jag behöver veta teorin bakom det ... Tack ...
Det är viktigt att förstå att alla bländare suddar bakgrunden - det är bara med mindre bländare kan suddighetsradien vara mindre än pixelstorleken så att den inte visas på bilderna.
@ Matt Grum: Tack för information du har gett ...
@Dulini Jag har redigerat frågan för att återspegla din feedback. Redigera gärna igen om du tror att jag har tolkat dig fel!
@ Mark Whitaker: Det är verkligen okej det gör inlägget mycket förståeligt, vilket är mycket användbart på webbplatsen :) Tack ...
Relaterat: http://photo.stackexchange.com/questions/2559
åtta svar:
Please Read My Profile
2011-06-25 17:52:57 UTC
view on stackexchange narkive permalink

Jag ska krypa från mitt svar på en tidigare fråga om bländare:

När bländaren är väldigt liten är det erkända ljuset mycket "kollimerat ", vilket är ett snyggt sätt att säga" alla strålar är snyggt parallella med varandra ". Detta resulterar i en skarp fokusering för allt ljus som kommer in. När bländaren är mer öppen är bara strålarna som stämmer nära fokuspunkten kollimerade - vilket innebär att allt du har fokuserat på är skarpt, men längre eller närmare delar av scenen kommer att bli alltmer suddig.

I grund och botten är ju mindre bländare desto mer begränsat till exakt fokus i ljuset. En större bländare släpper in mer ljus, men "priset" är att det är mindre kontrollerat.

Följande diagram från Wikimedia kan hjälpa:

File by wikipedia user Chabacano, licensed CC-BY-SA 3.0

Till vänster resulterar den breda bländaren i att endast mitten, fokuserat ♡-kort återges skarpt. Den mer smala bländaren till höger utesluter det mindre kollimerade ljuset från out- och ♣-korten som inte är i fokus, vilket ger en skarpare bild totalt.

Kom ihåg att de röda / gröna / blå prickade linjerna i diagrammet spåra utsidan av en ljusstrålkon. Det mer fokuserade ljuset ingår också i bilden som har gjorts med den bredare bländaren till vänster, men bildsensorn (eller filmen) kan inte säga vilken som var, så resultatet blir mer oskärpa förutom för strålarna som råkar vara just i kontaktpunkten.

Detta händer säkert också med det mänskliga ögat som en lins. Jag tycker att det bara är väldigt svårt att kontrollera ditt experiment, eftersom du faktiskt inte kan ta en bild för att jämföra sida vid sida. Under tiden mellan kväll och middag - eller till och med på en halvtimme som det tar ögonen att acklimatisera sig till ett mörkt rum - förlorar du det perfekta minnet om hur mycket suddighet det var. Detta kompliceras ytterligare av det faktum att din hjärna arbetar mycket hårt för att korrigera alla defekter från ögonen och presentera en mental modell för hela världen i perfekt fokus. (Det är vad hjärnans del av det mänskliga synsystemet gör.)

Det är väldigt svårt att titta på bara en plats; ditt öga flirar omedvetet och bygger en perfekt bild från en som egentligen bara är skarp i mitten. Detta tillför ytterligare en enorm komplikation - inte bara är ögonlinsen ett relativt enkelt system med många avvikelser, sensorn är oregelbunden. Eller snarare, det är mycket specialiserat. Det centrala området heter fovea , och det är bara cirka 1 mm i diameter - och den mest skarpa delen, foveola , är bara 0,2 mm . Det är där riktigt skarp syn kommer ifrån. Men det här området innehåller inga stavar (celler som är känsliga för svagt ljus), så detta vassa område är inte alls involverat när du är i svagt ljus. Detta gör en enkel jämförelse med kamerasystem i princip omöjlig.

Dessutom finns det en annan brist i dina grundläggande antaganden - tanken att det mänskliga ögat ser samma mängd rörelseoskärpa oavsett ljusmängden . Egentligen är ingången faktiskt integrerad över tiden, och tiden ökar i lägre ljusnivåer. Och "exponering" styrs faktiskt på ett annat sätt: känsligheten förstärks i mörkret - den effektiva motsvarigheten till auto-ISO.

Så, för att komma till den direkta frågan: det är optikens natur, och så gäller det också för våra ögon. Men våra ögon är en annan typ av system än en kamera och lins. Det mänskliga synsystemet har en enkel lins, en komplicerad sensor, mycket komplicerad omedelbar efterbehandling och ett otroligt komplicerat lagrings- och hämtningssystem. En kamera använder i allmänhet en sofistikerad lins, en jämförelsevis enkel sensormatris och jämförelsevis enkel efterbehandling (tills beräkningsfotografering kommer till sin rätt - oavsett om Lytro lyckas i år eller någon annars om fem år). Och minnessystemet är bit-för-bit perfekt - inte som det mänskliga minnet i alla fall.

Huruvida denna skillnad är något vi "gillar" och inte vill fixa är en fråga om tolkning. Visst finns idén om skärpedjup i vårt konstnärliga / visuella ordförråd som samhälle; om det kommer att förbli så om hundra år är en fråga om spekulation. Min gissning är ja även när tekniken förändras.

En kamera med en annan typ av sensor, som den som används i Lytro, kan faktiskt spela in riktning för de inkommande ljusstrålarna. Dessa ytterligare data gör att dessa kameror kan skapa en helt skarp bild även med en mycket stor bländare. Men det är inte så som Lytro-företaget säljer det: istället är deras gimmick bilder där du kan klicka för att ändra den beräknade fokuspunkten i farten. Att de valde den här vägen snarare än all-

Wow, den nya bilden är fantastisk! :) Jag skulle rösta igen om jag kunde.
Medan bilden är fin och allt, hjälper det verkligen inte mycket att förstå vad som händer. Ett 2D-diagram i [svaret av sastanin] (https://photo.stackexchange.com/a/15693/26253) är mycket mer förståeligt, men inte så snyggt.
Jag tycker att 3D-diagrammet är lättare att följa. Jag antar att var och en av dem - det är en anledning att webbplatsen tillåter flera svar.
sastanin
2011-09-15 12:30:09 UTC
view on stackexchange narkive permalink

Varför den breda bländaren gör bakgrunden mer suddig

Låt mig börja med Wikipedia-figur:

Depth of field illustration

Ovan vi har en vidöppen bländare. Endast punkt 2 är i fokus. Punkterna 1 och 3 är ur fokus. På grund av bred bländare skär strålarna från dem genom olika delar av linsen skärmen 5 (en film eller en digital sensor) i olika punkter. Vi kan också berätta att dessa strålar bildar en punkt (skär) före (röd) eller bortom (grön) skärmen. Motsvarande ljuskottar skär varandra med skärmen och bildar en ellipsliknande bild på skärmen. Bredare bländare möjliggör en bredare ljuskonus (så att den gör det möjligt att samla mer ljus och suddas ut mer.).

En punkt utanför fokusen ger en cirkel av förvirring. Det här är vad vi kan kalla oskärpa eller bokeh.

För mindre bländare nedan skärs strålarna för långt från mitten, så cirkeln för fokus utanför fokus är mindre.

Om förvirringscirkeln är mindre än filmkorn eller sensorunderpixel, kan vi inte säga om den är ur fokus alls, och då ser punkten ut som i fokus även om den inte är. Så med ändlig bländare finns det en rad avstånd som alla ser ut som i fokus. Djupet i detta intervall kallas för skärpedjup (DoF). Det är större för mindre bländare.

Om bländaren är riktigt, riktigt liten, kan bara de centrala strålarna passera och vi har ett oändligt skärpedjup oavsett vad. Varje punkt, nära eller långt bort, representeras som en punkt på bilden. Så här fungerar hålkamera. Justerbar bländare möjliggör allt däremellan.

Hur det ser ut

Vid mindre bländare f/32:

f/32

Vid större bländare f / 5 , blir en bakgrund som inte är i fokus blurad mer:

f/5

(bilder kommer igen från Wikipedia)

Och ... (du borde verkligen fylla i svaret. Siffrorna i sig utgör inte ett fullständigt svar, även om de klargör för någon som är bekant med ämnet).
@ jetxee: Tack så mycket för svaret ... Det gav mig detaljer om vad jag krävde ...
Siffran är faktiskt fel. 1. Grön prick, blå och röd visas på samma avstånd från linsen. I själva verket bör mittpunkten (grön) ligga före de två. 2. Punkt 1,2,3 är fel. De borde ha använt endast punkt 2 och använt strålar från alla tre objekten, hur de konvergerar vid punkt 2 eller hur punkt 2 ser dem.
@enthusiast: Jag tror att siffran har uppdaterats sedan din kommentar lades till. Annars följer jag dig inte, eftersom prickarna verkar visas på olika avstånd från linsen.
Jag tror inte att diagrammet är riktigt bra utan någon viktig ytterligare förklaring. De yttre linjerna i varje triad verkar innebära en magisk förträngning av ljusstrålarna med en mindre bländare. I själva verket förblir ljuset detsamma, men mer av det är uteslutet. De mer fokuserade strålarna finns också i det bredare bländarfallet. (Det är uppenbart om du vet det redan, men inte så bra för ett förklarande diagram.)
@mattdm har troligen redigerats. Jag kollade historiken. Svaret har ett inläggsdatum den 15 september 2011 kl. 19.30, det vill säga två timmar * efter * min kommentar. Tyvärr finns det ingen äldre version som jag kan se.
@mattdm Diagrammet visar uppenbarligen endast gränsstrålar. Tror du att ett diagram där hela ljuskotten är synligt är mer användbart? Så att det är tydligt att ju bredare konen är, desto större är dess tvärsnitt (oskärpa ur fokus). Jag försökte göra en interaktiv beskrivning på http://arboreus.com/out-of-focus/ Tror du att det förklarar saken bättre? Det kan vara mer användbart om det antagligen var ett interaktivt diagram.
ysap
2011-09-15 12:51:47 UTC
view on stackexchange narkive permalink

Ljusstrålar som kommer från det fokuserade motivet bryts när de passerar genom linsen och träffar sensorn (film). Strålar som kommer från en enda punkt bildar en kon vars bas är den öppna cirkeln i linsen. Ju större bländare, desto större är konens bas. Sedan bildas en sekundär kon och strålarna möts igen i kontaktpunkten.

Strålar som kommer från motiv som ligger på olika avstånd från linsen bildar kottar av olika längd (höjder, för att vara mer exakt). För längre koner (objekt bortom det fokuserade motivet) är de sekundära konerna kortare. För kortare kottar (föremål framför den) är den sekundära konen längre. Längden på den sekundära konen bestäms av den primära konens längd.

På grund av detta, när ljuset från en punkt på det icke-fokuserade objektet närmar sig sensorn, är bilden en liten cirkel, snarare än en enda punkt (det är verkligen mer av en ellips men låter försumma det).

När bländaren blir större blir basen på de två konerna större och därmed deras huvudvinkel. Eftersom längden förblir oförändrad blir bildcirkeln större. Det är därför du blir mer suddig när bländaren är bredare.

Som referens och en schematisk bild som verkligen förklarar alla mambo-jumbo ovan, läs den här artikeln.

szulat
2018-03-16 21:47:37 UTC
view on stackexchange narkive permalink

De andra svaren associerar felaktigt suddighetseffekten med vissa linsegenskaper. Du behöver inte anta något om hur bilden bildas av linsen eller ens om en lins existerar.

Scenen ser helt enkelt lite annorlunda ut från olika platser över bländaren.

Som du kan se på bilden, om du väljer att hålla det röda objektet i samma läge för varje bländarpunkt, kan det gröna objektet inte vara i samma läge. Detta skapar oskärpa, eftersom den slutliga bilden kombinerar alla dessa enskilda vyer.

aperture vs depth of field

Detta innebär att det enda fallet teoretiskt (och ignorerar diffraktion) när där allt kan vara i fokus är nålhål, skapar bilden från en enda punkt. I det verkliga livet är en liten men inte punktlig bländare bättre, på grund av diffraktion och ökad mängd ljus, men det är en annan fråga.

Att förfölja motivet vidare, "vem" väljer faktiskt vad som finns i fokus?

Varför det röda objektet och inte det gröna? Geometrin bestämmer bara att de inte kan vara både i fokus och att defokuseringsmängden beror på bländaren och detta är den grundläggande orsaken till DOF-effekten.

Hur kombineras den slutliga bilden faktiskt från partiella vyer? Detta beror på den "blå ruta" -enheten. I det verkliga livet är den "blå rutan" naturligtvis lins. Hittills lät vi som om vi inte vet någonting om hur bilden kombineras för att visa att fenomenet som inte är i fokus kommer från geometri och inte från linsegenskaperna .

more on aperture vs focus

Men det behöver inte vara objektiv. Istället kan vi placera tusentals pinhole-inspelare över bländarytan och få tusentals enskilda bilder. Genom att helt enkelt lägga över dessa bilder får vi samma DOF-effekt - beroende på bländaren. Och till skillnad från linsen kan vi då lägga över samma bilder på olika sätt och hålla det gröna föremålet stilla (vilket uppenbarligen skulle suddiga ut det röda).

men vad bestämmer positionen för det röda objektet? Det vill säga under vilka förhållanden är objekt på avståndet "objekt i fokus" faktiskt _ i fokus_ och inte ur fokus? Varför konvergerar inte de blå linjerna för att fokusera på de gröna objekten? Utan en lins för att _fokusera_ objekten, eller en observatör (öga) med en förspänning till ett visst fokusavstånd, är inget i fokus.
@scottbb vi frågar om bländare så jag tyckte att det skulle vara intressant att visa att linsen faktiskt är irrelevant och det bara döljer den verkliga orsaken till DOF-effekten. det jag visar här är att oförmågan att ha allt i fokus orsakas av bländaren och geometrin. linsen och fokus är sekundära. faktiskt kan vi byta ut linsen med 10000 nålhål (över bländarytan) och ta 10000 foton. lägg sedan över de här fotona och håll det röda föremålet på plats så får vi samma DOF-resultat (som med linsen). eller lägg på samma uppsättning bilder som håller det gröna föremålet på plats!
... med andra ord är fokus sekundärt. naturligtvis är det verkliga objektivet utformat för att dirigera strålarna från ett valt avstånd till samma punkt, vilket skapar fokus, men den grundläggande anledningen till att det finns ett behov av fokus (och varför det blir oskärpa) är bländarstorleken och geometrin. Dessutom låtsas det inte finnas någon lins gör förklaringen uppenbar. Visst, det kan visas hur linsen skapar bilden och hur objektavståndet påverkar fokus men då undrar vi om en annan lins eventuellt kan ändra effekten? så nu vet vi att det inte kunde.
det är ingen mening. Varför är avståndet till det röda föremålet det föredragna avståndet? Vad gör objekt på det avståndet, till exempel det röda objektet, _in fokus_? Svaret är _ inget_. Med ett nålhål är _ inget_ i fokus. Med ett _tillräckligt litet nålhål är allt lika skarpt och lärlingligt i _ tillräckligt med fokus, men inget avstånd är ett föredraget fokusavstånd i ett nålhål. Således är dina första och andra "resultat" -bilder felaktiga och vilseledande. Det finns ingen anledning för att det röda föremålet ska vara skarpt och i fokus, såvida du inte påtvingar en anledning att fokusera, som med ett objektiv.
@scottbb kom ihåg, min ritning visar bara vad som händer innan ljuset kommer in i bildenheten. kanske finns det någon lins inuti den blå lådan, kanske är det nålhål, det är irrelevant. här är jag inte intresserad av hur bilden bildas, eftersom DOF-effekten redan bestämdes av bländaren. utan linsen är du kanske frestad att se den blå rutan som en sensor eller ett papper. * nej, det är inte här bilden bildas! * Tänk dig, varje prickad linje markerar synvinkeln för någon imaginär varelse som bor på bländarytan. de ser olika saker och tillsammans ser de suddighet.
_föreställ dig, varje prickad linje markerar synvinkeln för någon imaginär varelse som lever på bländarytan_ Men då är det precis vad jag sa. Något måste ställa krav på att faktiskt föredra fokus. En singel eller en samling av massor av levande saker vid bländargränssnittet har _linser_ med brännvidd som föredrar att säga, det röda objektets fokusavstånd. Varför konvergerar de prickade linjerna genom den röda punkten? Eftersom _något_ fokuserade dem, eller något som observerade _föredrog_ deras fokuspunkt. Du behöver fortfarande åtgärden att _fostra fokus_ för att ha rött i fokus och inte grönt
@scottbb uppdaterade svaret och förklarade vem som bestämmer vad som är i fokus!
Matt Grum
2011-06-25 19:50:10 UTC
view on stackexchange narkive permalink

När ljuset träffar sensorn skapar det en plats i samma form som bländaren men i storlek beroende på källobjektets verkliga avstånd från fokusplanet. Om bländaren är en cirkel får du en cirkel, om bländaren är kvadratisk får du en fyrkant. Ju större bländare, desto större form, så överlappar den mer med angränsande former och ger dig mer suddighet.

När du kommer nära fokalplanet är storleken på den form som projiceras i sensorn så liten det skiljer sig inte från en punkt. Dessa avstånd definierar djupet om fältet.

Ditt öga fungerar på exakt samma sätt, men jag skulle inte lita på vad du ser eftersom hjärnan gör en galen process! Du ser bara detaljer på en liten plats i mitten av varje öga. Din hjärna rör sig varje ögon mycket snabbt för att "skanna" scenen och delar ihop allt utan att du någonsin vet!

Anon
2013-03-02 15:59:20 UTC
view on stackexchange narkive permalink

Titta på det här sättet. Med en tillräckligt liten bländare behöver du inte ens ett objektiv! Det kallas en pinhole-kamera.

En lins fokuserar föremål på ett visst avstånd, eftersom den fungerar genom att böja ljus.

En pinhole (åtminstone en idealisk) fungerar genom att kartlägga punkter ljus från olika vinklar till motsvarande vinklar på filmen, oavsett avstånd. (Verkliga nålhål har begränsningar. För liten nålhål sprider helt enkelt ljus på grund av diffraktion.)

En bländare framför en lins ger några av nålhålets egenskaper. Ju mindre du gör bländaren, desto mer förvandlar du din kamera till en hålkamera. Detta medför fördelen med brett skärpedjupfokus, men också några av nackdelarna med nålhålet: mindre samlingseffekt för ljus, diffraktionartefakter vid mycket höga f-stoppnummer.

D4Am
2013-03-03 18:51:12 UTC
view on stackexchange narkive permalink

Detta är ingen teknisk förklaring, men det är ett experiment. Följande text kopieras från Ben Longs bok Komplett digital fotografering:

Om du är tillräckligt närsynt för att behöva glasögon, prova det här snabba lilla djupet -fältförsök. Ta av dig glasögonen och krulla upp pekfingret mot tummen. Du borde kunna krulla tillräckligt med fingrarna för att skapa ett litet litet hål i pekfingrets kurva. Om du tittar genom hålet utan dina glasögon kommer du förmodligen att upptäcka att allt är i fokus . Det här hålet är en mycket liten apertur och ger därför mycket djupt skärpedjup - tillräckligt djupt , faktiskt, för att det kan korrigera din vision. På nackdelen släpper det inte mycket ljus igenom, så om du inte är i starkt dagsljus kanske du inte kan se något tillräckligt bra för att avgöra om det är i fokus. Nästa gång du är förvirrad över hur bländare relaterar till skärpedjup, kom ihåg detta test

Jag försökte det här och det fungerar verkligen. Försök att titta på en text som ligger cirka 100 meter från dig. Jag har kortsiktiga glasögon.

mongo
2019-03-26 19:28:27 UTC
view on stackexchange narkive permalink

Suddigheten är större eftersom det optiska systemets impulsrespons modifieras negativt med en större bländare. Men om bländaren görs mindre (nominellt f / 11 eller f / 16 i vissa linser) blir nedbrytningen på grund av diffraktionseffekter mer dominerande. Så det finns en optimal bländare, som ligger någonstans mellan en ideal impulsrespons och diffraktionsbegränsningarna hos en lins.

Punktspridningsfunktionen är den optiska överföringsfunktionen, som är Fourier Transform av den optiska impulsresponsfunktionen.

MTF (moduleringsöverföringsfunktion) liknar OTF, utom att den ignorerar fas. I icke-sammanhängande fotograferingsapplikationer kan de anses vara ganska lika.

I huvudsak beskriver OTF, MTF, punktspridningsfunktion det optiska systemets respons.

När en lins är vidöppen har ljusets bana större variation i banan, så att den utanför den exakta fokuspunkten har en större punktspridningsfunktion som när den rör sig med bilden blir oskärpa.

Nedan följer ett svar som jag nyligen gav på en liknande fråga. https://physics.stackexchange.com/questions/83303/why-does-aperture-size-affect-depth-of-field-in-photography

Fältdjup är ett uppfattningsfenomen som påverkar HVS (mänskligt visuellt system). Det är verkligen ett spel med "hur mycket suddighet kan vi ha tills det blir stötande?" Det finns bara ett "plan" (vanligtvis verkligen ett segment av en sfär) som är i fokus. Vid den tidpunkten utför avbildningssystemet i enlighet med förluster som atmosfär och linsens MTF (moduleringsöverföringsfunktion).

När ett objekt rör sig från det planet blir det omedelbart "ur fokus" och Det finns en punktspridningsfunktion som beskriver en växande skiva som i vissa cirklar (ingen ordspel avsedd) kallas "cirkel av förvirring."

Mindre öppningar som använder centrala delar av linsen, har ljus tar en kortare (och mer konsekvent) väg genom linsen. Detta hjälper till att minska punktspridningsfunktionen som beskriver förvirringscirkeln (och inte alltid en cirkel). Punktspridningsfunktionen i ett optiksystem kallas också impulsrespons.

Den resulterande bilden är en som är fällningen av målbilden och punktspridningsfunktionen. Åtminstone för icke-sammanhängande avbildning. Så uppfattningen om skärpedjupet är linjär med f-stopp och brännvidd.

Tyvärr har skärpedjupet gränser, och en väldigt liten bländare ger inte nästan oändligt skärpedjup, eftersom diffraktion spelar en större roll när det gäller att suddiga bilden, när bländaren blir mindre.

Så vad som verkligen händer med skärpedjupet är att objekt inte riktigt är i fokus från det fokuserade planet utan snarare suddigheten anses försumbar. Tänk på det här: ett miniatyrfoto kan se tydligt ut, men om det expanderas till ett foto på 8x10 tum kan det vara oacceptabelt otydligt. Så acceptabelt skärpedjup är en bestämning av effekten av en inriktad bilds inverkan på observatör, med tanke på det optiska systemet (atmosfär, lins, sensor / film och rendering / tryckning) och uppfattningsperspektivet (hur stor är den visade bilden).

I praktisk tillämpning, en så kallad hyper -fokalinställning på en lins, kan ge en acceptabel bild av en scen när den visas i en liten formatskärm eller utskrift, men när den expanderas eller förstoras ger den ett mer otydligt utseende eftersom det i verkligheten inte är helt i fokus genom "djupet av fältet. "

Kommentarer är välkomna, och kanske kan jag skriva om båda svaren för att vara mer universella för att hantera denna vanliga fråga.



Denna fråga och svar översattes automatiskt från det engelska språket.Det ursprungliga innehållet finns tillgängligt på stackexchange, vilket vi tackar för cc by-sa 3.0-licensen som det distribueras under.
Loading...