Vairāk

Kriginga izmantošana ar datiem GDB

Kriginga izmantošana ar datiem GDB


Manā GDB ir datu sērija

Es vadu programmu zem VBA, un es vēlos izmantot rīka Kriging datus.

Tas ir tas, ko es domāju:

Pirmkārt, Krigingam ir nepieciešami dati, kuriem jābūt punktu formāta failiem, un es saņemu datus no sava GDB (viens punkts vienā tabulā, bet ir daudz datu)

  1. Es saņemu nepieciešamos datus un izveidoju tos failā
  2. Es izmantoju Kriginga rīku, lai aprēķinātu shapefile
  3. Lai mainītu rastra Kriginga izgatavošanu uz punktu slāni, es izmantoju rīku rastra norādīšanai uz punktu
  4. Es saņemu vēlamos punktu datus!

Šis ir mans jautājums:

Kad es saņemu datus no GDB (izmantojot sSQL), kā tos mainīt uz VBA formefilu?

Esmu atradis tikai lapu, kurā XY dati tiek rādīti, izmantojot VBA: http://edndoc.esri.com/arcobjects/9.0/samples/tables/create_a_layer_based_on_xy_data.htm, taču to nevar saglabāt kā shapefile!

Kā to automātiski saglabāt?

Vai maniem soļiem ir kāda vaina?

Ja nepieciešama papildu informācija, lūdzu, pastāstiet man!

@ artwork21

Rindā radās kļūda

gp.FeatureClassToShapefile_conversion "'C: Temp New File Geodatabase.gdb point'", Temp__2_

saka

automatizācijas kļūda

nenoteikta kļūda

kā to salabot?

Zvanu rīki no ArcToolBox VBA formā

šajā ziņojumā par manu problēmu es to laboju, piemēram, sekoju

gp. Krigēšana "C: temp 123.shp", "F30", "C: AA Kriging_123", "Sfērisks 249.101224", "250"

bet šoreiz neatkarīgi no tā, ko es mēģinu, tas nedarbojas ...


Tā kā visi jūsu uzdevumi ir ģeogrāfiskās apstrādes uzdevumi, jūs vienkārši varat izveidot modeli un eksportēt modeli uz vb, pitonu vai jscript. Zemāk ir vbs skripta piemērs. Pēc tam varat izsaukt skriptu, izmantojot makro vai lietotāja saskarnes vadību.

Dim gp As object 'Izveidot ģeoprocesora objektu kopu gp = CreateObject ("esriGeoprocessing.GPDispatch.1")' Pārbaudiet visas nepieciešamās licences gp.CheckOutExtension "spatial" 'Ielādējiet nepieciešamās rīkkastes ... gp.AddToolbox "C: / Program Files / ArcGIS / ArcToolbox / Toolboxes / Spatial Analyst Tools.tbx "gp.AddToolbox" C: / Program Files / ArcGIS / ArcToolbox / Toolboxes / Conversion Tools.tbx "'Vietējie mainīgie ... Dim Temp As String =" C:  Temp "Dim point As String = "C:  Temp  New File Geodatabase.gdb  point" Dim Temp__2_ As String = "C:  Temp" Dim Kriging_poin1 As String = "C:  Temp  Kriging_poin1" Dim Output_variance_of_prediction_raster As String = "" Dim points_shp As String = "C:  Temp  points.shp" Dim RasterT_kriging1_shp As String = "C: Temp  RasterT_kriging1.shp" Dim kriging_poin1__2_ As String = "C: Temp  kriging_poin1" 'Process: Feature Class to Shapefile (vairāki) … Gp.FeatureClassToShapefile_conversion "'C: Temp  New File Geodatabase.gdb  point'", Temp__2_ 'Process: Kriging ... gp.Kriging_sa points_shp, "ID", Kriging _poin1, "Spherical 51.968339", "51.968339", "VARIABLE 12", Output_variance_of_prediction_raster 'Process: Raster to Point… gp.RasterToPoint_conversion kriging_poin1__2_, RasterT_kriging1_shp, Value "

Saistītās ģeotelpisko datu sistēmas arhitektūra

Ir izstrādāta prototipa sistēma datu pārvaldībai, vaicājumiem un izgūšanai no Nacionālās kartes resursu apraksta ietvarā (RDF). Sistēmas mērķis ir integrēt starp tematiskās ģeogrāfiskās informācijas sistēmas funkcijas no Nacionālās kartes un dažādu datu avotu un formātu pamatdatus.

Augsta līmeņa koncepcijas diagramma saistītās datu sistēmas arhitektūras prototipam, kas izstrādāta datu vaicājumiem un izgūšanai no Nacionālās kartes

(Kredīts: Dalia Varanka. Publisks īpašums.)

Kartes kā zināšanu bāzes projektā tiek izstrādāta prototipa sistēma datu piegādei no Nacionālās kartes kā sasaistītie atklātie dati (LOD). Šīs sistēmas lietotāja saskarnē tiek izmantotas dažādas vizualizācijas metodes, lai lietotāji varētu pieprasīt, novērtēt un izgūt datus no USGS un avotiem, kas nav USGS. Galvenais jēdziens ir tāds, ka datiem būtu kopēja atsauce, tie tiktu parādīti un pieejami tālākai izpētei. UI atbalsta pārlūkojamo diagrammu pieeju datu vaicājumiem, kas konkrētāk ļauj lietotājam ierobežot datus atbilstoši viņu kritērijiem un integrēt ar saistītiem datiem.

Darbplūsmas diagramma saistīto datu atdalīšanai, izmantojot prototipa sistēmu

Sistēmas arhitektūra

Sistēmas vispārīgā loģiskā shēma, lai izpildītu aprakstīto aboce, ir parādīta zem augsta līmeņa diagrammas darbplūsmas diagrammā. Sistēmas moduļi ir bezmaksas un atvērtā koda programmatūra.

Vaicājumu veidotāja lietojumprogrammas skats kartes kā zināšanu bāzes lietotāja saskarnē

Datu vizualizācija

Kartei kā zināšanu bāzes lietotājam ir iespējami vairāki sākuma punkti. SPARQL vai GeoSPARQL vaicājumiem palīdz vaicājumu veidotājs. Zemāk redzamais attēls palīdz atlasīt diagrammas datu kopu, atlasīt īpašības un filtrēt rezultātus starp citām pusautomātiskām funkcijām.

Lietotāja saskarnē ir uzskaitītas datu kopas, kuras atlasīt, izmantojot izvēlni.

Datu kopu attēls, kas pieejams lietošanai kartes zināšanu bāzes vizualizācijas sistēmas saskarnē.

Atlasot interesējošo funkciju, parādās uznirstošais logs ar rekvizītu saitēm, kā parādīts zemāk esošajā attēlā. Opcija vaicāt vairāk informācijas atgriež papildu rekvizītus.

Funkcijas izvēle vaicājumam rada uznirstošo logu ar rekvizītu saitēm. Papildinformācijas opcija nosūta vaicājumu, lai izgūtu papildu rekvizītus.

Papildus karšu vizualizācijai ontoloģiju var apskatīt vai nu kā atsevišķu logu pilnīgai apskatei, vai arī mazāku ielikuma skatu, lai koncentrētos uz interesējošo objektu.

Datu diagrammas noklusējuma ontoloģijas skats, kas tiek izmantots kartē kā zināšanu bāzes lietotāja interfeiss

Datu diagrammas noklusējuma ontoloģijas skats, kas tiek izmantots kartē kā zināšanu bāzes lietotāja interfeiss

(Kredīts: Tanner Fry. Publisks īpašums.)

Datu konvertēšana no nacionālās kartes uz resursu apraksta sistēmu (RDF)

Šī procedūra pārveido datus par Nacionālās kartes vektoru formātu tēmām (Transports, valdības robežas, struktūras un hidrogrāfija). Šīs datu kopas parasti izpaužas kā Esri GDB (ģeogrāfiskās datu bāzes formāts). Mērķis ir pārveidot tos par XML / JSON. Procedūra sastāv no trim pamatdarbībām: 1. darbība: datu izgūšana no Amazon S3, 2. darbība: izgūto GDB failu konvertēšana uz XML, 3. darbība: XML failu konvertēšana vajadzīgajā formātā (galvenokārt JSON / JSON-LD).


EBK regresijas prognoze (ģeostatistiskais analītiķis)

EBK regresijas prognozēšana ir ģeostatistiskas interpolācijas metode, kurā tiek izmantota empīriskā Bajesa krigēšana ar izskaidrojošiem mainīgiem rastriem, par kuriem ir zināms, ka tie ietekmē jūsu interpolējamo datu vērtību. Šī pieeja apvieno krigingu ar regresijas analīzi, lai veiktu precīzākas prognozes nekā regresija vai krigēšana var sasniegt pašas.

Šis rīks atbalsta tikai prognozēšanas kartes izvadi. Lai izveidotu standarta kļūdu, kvantu vai varbūtību kartes, izvadiet ģeostatistisko slāni un pārveidojiet to par rastru (vai vairākiem rastriem), izmantojot GA Layer To Rasters.

Šī kriginga metode var apstrādāt mēreni nestacionārus ievades datus.

Šai interpolācijas metodei ir atļauts izmantot tikai standarta apļveida un vienmērīgas apļveida meklēšanas apkaimes.

Ja kādā no jūsu ievades skaidrojošajiem mainīgajiem rastriem ir daudz NoData šūnu, izejas ģeostatiskā slāņa kartē var neizdoties vizualizēt. Tā nav problēma, un aprēķini ir veikti pareizi. Lai vizualizētu izvadi, pārveidojiet savu ģeostatistisko slāni par rastru, izmantojot GA Layer to Rasters vai GA Layer To Grid. Varat arī izvēlēties rastra izvadi tieši no šī rīka, izmantojot parametru Output prediction raster.

Ja no ievades atkarīgās mainīgo pazīmes atrodas ģeogrāfiskā koordinātu sistēmā, visi attālumi tiks aprēķināti, izmantojot akordu attālumus. Lai iegūtu papildinformāciju par akordu attālumiem, skatiet sadaļu Attāluma aprēķini datiem ģeogrāfisko koordinātu sadaļā Kas ir empīriskā Bajesa kriginga palīdzības tēma.

Ievades punkta funkcijas satur interpolējamo lauku.

No ievades atkarīgā mainīgā pazīmju lauks, kurā ir atkarīgā mainīgā vērtības. Šis lauks tiks interpolēts.

Ievades rasteri, kas attēlo paskaidrojošos mainīgos, kas tiks izmantoti regresijas modeļa izveidošanai. Šiem rastriem jāatspoguļo mainīgie, kas, kā zināms, ietekmē atkarīgā mainīgā vērtības. Piemēram, interpolējot temperatūras datus, kā paskaidrojošais mainīgais jāizmanto augstuma rastrs, jo temperatūru ietekmē augstums. Varat izmantot līdz 62 skaidrojošiem rastriem.

Izejas ģeostatistiskais slānis, kas parāda interpolācijas rezultātu.

Izejas rastrs, kas parāda interpolācijas rezultātu. Šūnu noklusējuma lielums būs maksimālais ievades skaidrojošo mainīgo rastru šūnu lielums. Lai izmantotu citu šūnu lielumu, izmantojiet šūnu lieluma vides iestatījumu.

Izejas daudzstūra pazīmju klase, kas parāda katra vietējā modeļa reģionus un satur laukus ar vietējo modeļu diagnostikas informāciju. Katrai apakškopai tiks izveidots daudzstūris, kas ieskauj apakškopas punktus, lai jūs varētu viegli noteikt, kuri punkti tika izmantoti katrā apakškopā. Piemēram, ja ir 10 vietējie modeļi, šajā izvadā būs desmit daudzstūri. Funkciju klasē būs šādi lauki:

  • Galveno komponentu skaits (PrincComps) - galveno komponentu skaits, kas tika izmantoti kā paskaidrojošie mainīgie. Vērtība vienmēr būs mazāka vai vienāda ar skaidrojošo mainīgo rastru skaitu.
  • Dispersijas procenti (PercVar) - galveno komponentu uztvertā dispersijas procentuālā daļa. Šī vērtība būs lielāka vai vienāda ar vērtību, kas norādīta zemāk norādītajā parametra Minimālais kumulatīvais dispersijas procents.
  • Saknes vidējā kvadrāta kļūda (RMSE) - vidējās kvadrātiskās sakrustotās validācijas kļūdu kvadrātsakne. Jo mazāka ir šī vērtība, jo labāk modelis der.
  • Procentuālais 90 intervāls (Perc90) - datu punktu procentuālais daudzums, kas ietilpst 90 procentu savstarpējās validācijas ticamības intervālā. Ideālā gadījumā šim skaitlim vajadzētu būt tuvu 90. Vērtība, kas ir ievērojami mazāka par 90, norāda, ka standarta kļūdas tiek nenovērtētas. Vērtība, kas ievērojami pārsniedz 90, norāda, ka standarta kļūdas tiek pārvērtētas.
  • Procentuālais intervāls 95 (Perc95) - datu punktu procentuālais daudzums, kas ietilpst 95 procentu savstarpējās validācijas ticamības intervālā. Ideālā gadījumā šim skaitlim vajadzētu būt tuvu 95. Vērtība, kas ir ievērojami mazāka par 95, norāda, ka standarta kļūdas tiek nenovērtētas. Vērtība, kas ievērojami pārsniedz 95, norāda, ka standarta kļūdas tiek pārvērtētas.
  • Vidējā absolūtā kļūda (MeanAbsErr) - savstarpējās validācijas kļūdu absolūto vērtību vidējā vērtība. Šai vērtībai jābūt pēc iespējas mazākai. Tas ir līdzīgs vidējā kvadrāta kļūdai, taču to mazāk ietekmē galējās vērtības.
  • Mean Error (MeanError) - savstarpējās validācijas kļūdu vidējais lielums. Šai vērtībai jābūt tuvu nullei. Vērtība, kas ievērojami atšķiras no nulles, norāda, ka prognozes ir tendenciozas.
  • Nepārtrauktā ranžētās varbūtības rādītājs (CRPS) - nepārtrauktā ranžētā varbūtības rādītājs ir diagnostika, kas mēra novirzi no prognozējošās kumulatīvās sadalījuma funkcijas uz katru novēroto datu vērtību. Šai vērtībai jābūt pēc iespējas mazākai. Šai diagnostikai ir priekšrocības salīdzinājumā ar savstarpējas validācijas diagnostiku, jo tā salīdzina datus ar pilnīgu sadalījumu, nevis ar viena punkta prognozēm.

Lauks, kas norāda mērījumu kļūdu katram punktam atkarīgajās mainīgajās pazīmēs. Katram punktam šī lauka vērtībai jāatbilst vienai punkta izmērītās vērtības standartnovirzei. Izmantojiet šo lauku, ja mērījumu kļūdu vērtības katrā punktā nav vienādas.

Parasti nekonstantu mērījumu kļūdu avots ir tad, kad datus mēra ar dažādām ierīcēm. Viena ierīce var būt precīzāka par citu, kas nozīmē, ka tai būs mazāka mērījumu kļūda. Piemēram, viens termometrs noapaļo līdz tuvākajai pakāpei, bet otrs termometrs noapaļo līdz tuvākajai grāda desmitdaļai. Mērījumu mainīgumu bieži nodrošina mērīšanas ierīces ražotājs, vai arī tas var būt zināms no empīriskās prakses.

Atstājiet šo parametru tukšu, ja nav mērījumu kļūdu vērtību vai mērījumu kļūdu vērtības nav zināmas.

Nosaka minimālo kumulatīvo dispersijas procentuālo daļu no paskaidrojošo mainīgo rastru galvenajiem komponentiem. Pirms regresijas modeļa izveidošanas tiek aprēķināti paskaidrojošo mainīgo galvenie komponenti, un šie galvenie komponenti tiek izmantoti kā paskaidrojošie mainīgie regresijā. Katrs galvenais komponents uztver noteiktu procentuālo daļu no paskaidrojošo mainīgo lieluma dispersijas, un šis parametrs kontrolē minimālo dispersijas procentuālo daudzumu, kas jāaptver katra vietējā modeļa galvenajām sastāvdaļām. Piemēram, ja ir norādīta vērtība 75, programmatūra izmantos minimālo galveno komponentu skaitu, kas nepieciešams, lai uztvertu vismaz 75 procentus no skaidrojošo mainīgo lieluma dispersijas.

Visi galvenie komponenti nav savstarpēji savstarpēji saistīti, tāpēc galveno komponentu izmantošana atrisina multikolinearitātes problēmu (skaidrojošie mainīgie, kas ir savstarpēji saistīti). Lielāko daļu informācijas, kas ietverta visos paskaidrojošos mainīgajos, bieži var iegūt tikai dažās galvenajās sastāvdaļās. Atmetot vismazāk noderīgās galvenās sastāvdaļas, modeļa aprēķins kļūst stabilāks un efektīvāks, būtiski nezaudējot precizitāti.

Lai aprēķinātu galvenos komponentus, skaidrojošajos mainīgajos ir jābūt mainīgam, tādēļ, ja kādā no jūsu ievades skaidrojošajiem mainīgajiem rastriem apakškopā ir nemainīgas vērtības, šie konstanti rasteri netiks izmantoti, lai aprēķinātu galvenās sastāvdaļas šai apakškopai. Ja visos paskaidrojošos mainīgo rastros apakškopā ir nemainīgas vērtības, izvades diagnostikas pazīmju klase ziņos, ka tika izmantotas nulles galvenās sastāvdaļas un ka tās uztvēra nulle mainīguma procentu.

Daudzstūra iezīmes nosaka, kur tiks aprēķināti vietējie modeļi. Katra daudzstūra iekšpusē esošie punkti tiks izmantoti vietējiem modeļiem. Šis parametrs ir noderīgs, ja zināt, ka atkarīgā mainīgā vērtības mainās atkarībā no zināmiem reģioniem. Piemēram, šie daudzstūri var apzīmēt administratīvos veselības rajonus, kur veselības politika mainās dažādos rajonos.

Varat arī izmantot rīku Apakškopas daudzstūru ģenerēšana, lai izveidotu apakškopu daudzstūrus. Šī rīka izveidotie daudzstūri būs nepārklājas un kompakti.

Ievaddatiem piemērojamās transformācijas veids.

  • NAV - nepiemēro nekādu pārveidošanu. Tas ir noklusējums.
  • EMPIRICAL - multiplikatīvā šķībā transformācija ar empīrisko bāzes funkciju.
  • LOGEMPIRICAL - multiplikatīvā šķībā transformācija ar Log Empirical bāzes funkciju. Visām datu vērtībām jābūt pozitīvām. Ja tiek izvēlēta šī opcija, visas prognozes būs pozitīvas.

Semivariogrammas modelis, kas tiks izmantots interpolācijai.

  • EKSPONENTIĀLS - eksponenciāla semivariogramma
  • NUGGET - Nugget semivariogram
  • WHITTLE - nedaudz semivariogramma
  • K_BESSEL - K-Besela semivariogramma

Ievades dati tiks automātiski sadalīti apakškopās, kurām nav vairāk par šo punktu skaitu. Ja tiek piegādātas apakškopas daudzstūra funkcijas, šī parametra vērtība tiks ignorēta.

Faktors, kas atspoguļo vietējo modeļu pārklāšanās pakāpi (sauktas arī par apakškopām). Katrs ievades punkts var iekrist vairākās apakškopās, un pārklāšanās faktors norāda vidējo apakškopu skaitu, kurā katrs punkts iekritīs. Augsta pārklāšanās faktora vērtība padara izejas virsmu vienmērīgāku, bet tas arī palielina apstrādes laiku. Vērtībām jābūt no 1 līdz 5. Ja tiek piegādātas apakškopas daudzstūra pazīmes, šī parametra vērtība tiks ignorēta.

Katra lokālā modeļa simulēto semivariogrammu skaits. Izmantojot vairāk simulāciju, modeļa aprēķini kļūs stabilāki, bet modeļa aprēķināšana prasīs ilgāku laiku.

Nosaka, kuri apkārtējie punkti tiks izmantoti izejas kontrolei. Standarts ir noklusējums.


Sintakse

Ievades punkta funkcijas satur interpolējamo lauku.

No ievades atkarīgā mainīgā pazīmju lauks, kurā ir atkarīgā mainīgā vērtības. Šis lauks tiks interpolēts.

Ievades rasteri, kas attēlo paskaidrojošos mainīgos, kas tiks izmantoti regresijas modeļa izveidošanai. Šiem rastriem jāatspoguļo mainīgie, kas, kā zināms, ietekmē atkarīgā mainīgā vērtības. Piemēram, interpolējot temperatūras datus, kā paskaidrojošais mainīgais jāizmanto augstuma rastrs, jo temperatūru ietekmē augstums. Varat izmantot līdz 62 skaidrojošiem rastriem.

Izejas ģeostatistiskais slānis, kas parāda interpolācijas rezultātu.

Izejas rastrs, kas parāda interpolācijas rezultātu. Šūnu noklusējuma lielums būs maksimālais ievades skaidrojošo mainīgo rastru šūnu lielums. Lai izmantotu citu šūnu lielumu, izmantojiet šūnu lieluma vides iestatījumu.

Izejas daudzstūra pazīmju klase, kas parāda katra vietējā modeļa reģionus un satur laukus ar vietējo modeļu diagnostikas informāciju. Katrai apakškopai tiks izveidots daudzstūris, kas ieskauj apakškopas punktus, lai jūs varētu viegli noteikt, kuri punkti tika izmantoti katrā apakškopā. Piemēram, ja ir 10 vietējie modeļi, šajā izvadā būs desmit daudzstūri. Funkciju klasē būs šādi lauki:

  • Galveno komponentu skaits (PrincComps) - galveno komponentu skaits, kas tika izmantoti kā paskaidrojošie mainīgie. Vērtība vienmēr būs mazāka vai vienāda ar skaidrojošo mainīgo rastru skaitu.
  • Dispersijas procenti (PercVar) - galveno komponentu uztvertā dispersijas procentuālā daļa. Šī vērtība būs lielāka vai vienāda ar vērtību, kas norādīta zemāk norādītajā parametra Minimālais kumulatīvais dispersijas procents.
  • Saknes vidējā kvadrāta kļūda (RMSE) - vidējās kvadrātiskās sakrustotās validācijas kļūdu kvadrātsakne. Jo mazāka ir šī vērtība, jo labāk modelis der.
  • Procentuālais 90 intervāls (Perc90) - datu punktu procentuālais daudzums, kas ietilpst 90 procentu savstarpējās validācijas ticamības intervālā. Ideālā gadījumā šim skaitlim vajadzētu būt tuvu 90. Vērtība, kas ir ievērojami mazāka par 90, norāda, ka standarta kļūdas tiek nenovērtētas. Vērtība, kas ievērojami pārsniedz 90, norāda, ka standarta kļūdas tiek pārvērtētas.
  • Procentuālais intervāls 95 (Perc95) - datu punktu procentuālais daudzums, kas ietilpst 95 procentu savstarpējās validācijas ticamības intervālā. Ideālā gadījumā šim skaitlim vajadzētu būt tuvu 95. Vērtība, kas ir ievērojami mazāka par 95, norāda, ka standarta kļūdas tiek nenovērtētas. Vērtība, kas ievērojami pārsniedz 95, norāda, ka standarta kļūdas tiek pārvērtētas.
  • Vidējā absolūtā kļūda (MeanAbsErr) - savstarpējās validācijas kļūdu absolūto vērtību vidējā vērtība. Šai vērtībai jābūt pēc iespējas mazākai. Tas ir līdzīgs vidējā kvadrāta kļūdai, taču to mazāk ietekmē galējās vērtības.
  • Mean Error (MeanError) - savstarpējās validācijas kļūdu vidējais lielums. Šai vērtībai jābūt tuvu nullei. Vērtība, kas ievērojami atšķiras no nulles, norāda, ka prognozes ir tendenciozas.
  • Nepārtrauktā ranžētās varbūtības rādītājs (CRPS) - nepārtrauktā ranžētā varbūtības rādītājs ir diagnostika, kas mēra novirzi no prognozējošās kumulatīvās sadalījuma funkcijas uz katru novēroto datu vērtību. Šai vērtībai jābūt pēc iespējas mazākai. Šai diagnostikai ir priekšrocības salīdzinājumā ar savstarpējas validācijas diagnostiku, jo tā salīdzina datus ar pilnīgu sadalījumu, nevis ar viena punkta prognozēm.

Lauks, kas norāda mērījumu kļūdu katram punktam atkarīgajās mainīgajās pazīmēs. Katram punktam šī lauka vērtībai jāatbilst vienai punkta izmērītās vērtības standartnovirzei. Izmantojiet šo lauku, ja mērījumu kļūdu vērtības katrā punktā nav vienādas.

Parasti nekonstantu mērījumu kļūdu avots ir tad, kad datus mēra ar dažādām ierīcēm. Viena ierīce var būt precīzāka par citu, kas nozīmē, ka tai būs mazāka mērījumu kļūda. Piemēram, viens termometrs noapaļo līdz tuvākajai pakāpei, bet otrs termometrs noapaļo līdz tuvākajai grāda desmitdaļai. Mērījumu mainīgumu bieži nodrošina mērīšanas ierīces ražotājs, vai arī tas var būt zināms no empīriskās prakses.

Atstājiet šo parametru tukšu, ja nav mērījumu kļūdu vērtību vai mērījumu kļūdu vērtības nav zināmas.

Nosaka minimālo kumulatīvo dispersijas procentuālo daļu no paskaidrojošo mainīgo rastru galvenajiem komponentiem. Pirms regresijas modeļa izveidošanas tiek aprēķināti paskaidrojošo mainīgo galvenie komponenti, un šie galvenie komponenti tiek izmantoti kā paskaidrojošie mainīgie regresijā. Katrs galvenais komponents uztver noteiktu procentuālo daļu no paskaidrojošo mainīgo lieluma dispersijas, un šis parametrs kontrolē minimālo dispersijas procentuālo daudzumu, kas jāaptver katra vietējā modeļa galvenajām sastāvdaļām. Piemēram, ja ir norādīta vērtība 75, programmatūra izmantos minimālo galveno komponentu skaitu, kas nepieciešams, lai uztvertu vismaz 75 procentus no skaidrojošo mainīgo lieluma dispersijas.

Visi galvenie komponenti nav savstarpēji savstarpēji saistīti, tāpēc galveno komponentu izmantošana atrisina multikolinearitātes problēmu (skaidrojošie mainīgie, kas ir savstarpēji saistīti). Lielāko daļu informācijas, kas ietverta visos paskaidrojošos mainīgajos, bieži var iegūt tikai dažās galvenajās sastāvdaļās. Atmetot vismazāk noderīgās galvenās sastāvdaļas, modeļa aprēķins kļūst stabilāks un efektīvāks, būtiski nezaudējot precizitāti.

Lai aprēķinātu galvenos komponentus, skaidrojošajos mainīgajos ir jābūt mainīgam, tādēļ, ja kādā no jūsu ievades skaidrojošajiem mainīgajiem rastriem apakškopā ir nemainīgas vērtības, šie konstanti rasteri netiks izmantoti, lai aprēķinātu galvenās sastāvdaļas šai apakškopai. Ja visos paskaidrojošos mainīgo rastros apakškopā ir nemainīgas vērtības, izvades diagnostikas pazīmju klase ziņos, ka tika izmantotas nulles galvenās sastāvdaļas un ka tās uztvēra nulle mainīguma procentu.

Daudzstūra iezīmes nosaka, kur tiks aprēķināti vietējie modeļi. Katra daudzstūra iekšpusē esošie punkti tiks izmantoti vietējiem modeļiem. Šis parametrs ir noderīgs, ja zināt, ka atkarīgā mainīgā vērtības mainās atkarībā no zināmiem reģioniem. Piemēram, šie daudzstūri var apzīmēt administratīvos veselības rajonus, kur veselības politika mainās dažādos rajonos.

Varat arī izmantot rīku Apakškopas daudzstūru ģenerēšana, lai izveidotu apakškopu daudzstūrus. Šī rīka izveidotie daudzstūri būs nepārklājas un kompakti.

Ievaddatiem piemērojamās transformācijas veids.

  • NAV - nepiemēro nekādu pārveidošanu. Tas ir noklusējums.
  • EMPIRICAL - multiplikatīvā šķībā transformācija ar empīrisko bāzes funkciju.
  • LOGEMPIRICAL - multiplikatīvā šķībā transformācija ar Log Empirical bāzes funkciju. Visām datu vērtībām jābūt pozitīvām. Ja tiek izvēlēta šī opcija, visas prognozes būs pozitīvas.

Semivariogrammas modelis, kas tiks izmantots interpolācijai.

  • EKSPONENTIĀLS - eksponenciāla semivariogramma
  • NUGGET - Nugget semivariogram
  • WHITTLE - nedaudz semivariogramma
  • K_BESSEL - K-Besela semivariogramma

Ievades dati tiks automātiski sadalīti apakškopās, kurām nav vairāk par šo punktu skaitu. Ja tiek piegādātas apakškopas daudzstūra funkcijas, šī parametra vērtība tiks ignorēta.

Faktors, kas atspoguļo vietējo modeļu pārklāšanās pakāpi (sauktas arī par apakškopām). Katrs ievades punkts var iekrist vairākās apakškopās, un pārklāšanās faktors norāda vidējo apakškopu skaitu, kurā katrs punkts iekritīs. Augsta pārklāšanās faktora vērtība padara izejas virsmu vienmērīgāku, bet tas arī palielina apstrādes laiku. Vērtībām jābūt no 1 līdz 5. Ja tiek piegādātas apakškopas daudzstūra pazīmes, šī parametra vērtība tiks ignorēta.

Katra lokālā modeļa simulēto semivariogrammu skaits. Izmantojot vairāk simulāciju, modeļa aprēķini kļūs stabilāki, bet modeļa aprēķināšana prasīs ilgāku laiku.

Nosaka, kuri apkārtējie punkti tiks izmantoti izejas kontrolei. Standarts ir noklusējums.


ĢIS koncepciju izmantošana problemātiskajai Saūda Arābijas austrumu Sabkha augsnes pamatnei

Pamatu projektēšana uz problemātiskas augsnes tiek uzskatīta par vienu no izaicinošākajiem jautājumiem ģeotehniskajiem inženieriem. Sabkha jeb sāls plakana tiek uzskatīta par problemātisku augsni, kas pastāv piekrastes rajonos. Ar-Rayyas sabkha aptver plašu teritoriju Saūda Arābijas Karalistes Austrumu provincē. Šajā pētījumā tiek apsvērts Kinga Fahda priekšpilsēta Damamas pilsētā, Saūda Arābijā, kas ir identificēts ar plašu Ar-Rayyas sabkha klātbūtni. Tika ziņots par daudzām priekšpilsētas dzīvojamo ēku strukturālajām nepilnībām. Sabreha klātbūtne dominē šo neveiksmju cēloņos. Priekšpilsētā tika veikti 59 pētāmie urbumi, un urbumiem tika iegūtas standarta iespiešanās N vērtības. Tika veikta regresijas analīze un sniegts N vērtību prognozēšanas modelis, izmantojot urbumu koordinātas un dziļuma intervālus kā regresorus. Modeļa zemās precizitātes dēļ tika ierosināts mākslīgā neironu tīkla modelis, lai uzlabotu prognozēšanas precizitāti, tomēr bija nepieciešama turpmāka uzlabošana. Izmantojot ĢIS jēdzienus, priekšpilsēta tika kartēta, un urbuma vietas ar to atribūtiem tika projicētas kartē. Lai prognozētu un interpolētu N-vērtības starp urbumiem, tika izmantotas dažādas interpolācijas metodes. Ar apgrieztās attāluma svēršanas metodi tika iegūts visprecīzākais modelis, un tāpēc tā tika izvēlēta, lai izveidotu galīgos izkārtojumus katram dziļuma intervālam. Visbeidzot, tika izveidots pamats pamatu projektēšanai ar ĢIS paņēmienu palīdzību.

Šis ir abonementa satura priekšskatījums, piekļuve caur jūsu iestādi.


Abstrakts

Priekšlaicīgas mirstības novērtējums, kas saistīts ar smalko daļiņu (PM2.5) un ozonu (O3) ir svarīga zinātniska nozīme, un tā sniedz vērtīgu informāciju nākotnes emisiju kontroles stratēģijām. Dati par iedarbību ir īpaši svarīgi, taču tie var radīt lielu nenoteiktību veselības sloga novērtējumos. Šajā pētījumā pirmo reizi tika izmantotas sešas metodes, lai iegūtu PM koncentrācijas datus2.5 un O3 Ķīnā laikā no 2014. līdz 2018. gadam, un pēc tam kvantitatīvi noteica PM izraisītās priekšlaicīgās mirstības izmaiņas2.5 un O3 izmantojot vides ieguvumu kartēšanas un analīzes programmas kopienas izdevuma (BenMAP-CE) modeli. Rezultāti liecina, ka PM2.5saistītā priekšlaicīgā mirstība Ķīnā samazinās par 263 (95% ticamības intervāls (CI95): 142–159) līdz 308 (CI95: 213–241) tūkstošiem no 2014. līdz 2018. gadam, izmantojot dažādus koncentrācijas datus, savukārt O3saistītā priekšlaicīgā mirstība palielinās par 67 (CI95: 26–104) līdz 103 (CI95: 40–163) tūkstošiem. Aprēķinātās vidējās izmaiņas PM ir līdz 40% atšķirīgas2.5saistītā mirstība un O līdz 30%3saistīta mirstība, ja tiek izvēlēti dažādi iedarbības dati. Ievērojamākā atšķirība iedarbības datu dēļ ir sastopama apgabalos ar iedzīvotāju blīvumu aptuveni 10 3 cilvēki / km 2, kas galvenokārt atrodas Centrālajā Ķīnā, gan PM2.5 un O3. Mūsu rezultāti parāda, ka iedarbības datu avots būtiski ietekmē mirstības novērtējumus, un tāpēc tas ir rūpīgi jāapsver, novērtējot veselības slogu.


Rīku kopas izstrāde

10.1 ir 85 jauni rīki un 117 jauni parametri.

18 rīkjoslās ir izmaiņas esošajos rīkos un jaunajos rīkkopās. Pilnīgu informāciju var atrast, izmantojot zemāk norādītās saites. Šeit ir daži svarīgākie notikumi no dažādām rīkkastēm:

Ja jūsu objektu klase izmanto projicētu koordinātu sistēmu un aizņem lielu platību, vai arī jūs izmantojat ļoti lielus bufera attālumus, iegūtie bufera attālumi visā jūsu reģionā atšķirsies projekcijas sagrozījumu dēļ. Ģeodēziskie buferi precīzāk attēlo attālumus uz zemes virsmas. Ģeodēziskie buferi tiks automātiski izveidoti, ja ievades pazīmju klasei ir ģeogrāfiskā koordinātu sistēma un bufera attālums ir norādīts lineārās vienībās, piemēram, metros un pēdās (pretstatā leņķa mērvienībām, piemēram, grādiem).

Rīks Tabulate Intersection aprēķina divu pazīmju klases krustojumu un šķērso tabulās krustojošo pazīmju laukumu, garumu vai skaitu.

To var izmantot, lai atbildētu uz daudziem jautājumiem, piemēram, cik lielu daļu no manas izpētītās teritorijas zonām klāj dažādas zemes seguma klases. To var izmantot arī, lai tulkotu starp dažādām ģeogrāfiskām robežām, tomēr lietotājiem būtu jāzina jautājumi, kas saistīti ar šādu analīzi, jo īpaši modificējamā apgabala vienības problēma (MAUP Openshaw, 1984). Gadījumos, kad šis rīks nav piemērots tulkošanai starp robežām, piemērotāka var būt cita jauna metode - Areal Interpolation in Geostatistical Analyst paplašinājums.

Izpētes regresijas rīks nodrošina datu ieguves rīku. Šis rīks novērtē visas iespējamās ievades skaidrojošo mainīgo kombinācijas, meklējot parastos mazāko kvadrātu (OLS) regresijas modeļus, kas vislabāk izskaidro no ievades atkarīgo mainīgo. Tas ir līdzīgs pakāpeniskas regresijas metodēm, jo ​​tā cenšas atrast modeļus ar augstu Pielāgoto R2, tomēr šī metode papildus cenšas atrast modeļus, kas atbilst visām OLS metodes prasībām un pieņēmumiem.

Šeit ir saites uz detalizētu informāciju par izmaiņām, kas veiktas 10.1 katrā rīkjoslā


Otrdiena, 2016. gada 15. novembris

Loka savācējs - 1. daļa

Arc Collector ļauj apkopot datus laukā, izmantojot mobilo ierīci (tālruni, planšetdatoru).

Metodes



Svētdiena, 2015. gada 1. marts

Ģeodatu bāzes, atribūti un domēni

Ievads:

Viens no svarīgākajiem mūsdienu GIS datu modeļiem ir ģeodatu bāze. Tas ir galvenais mehānisms, ko izmanto, organizējot un uzglabājot ģeogrāfiskos datus ESRI ArcGIS. Ģeodatu bāze ir orientēta uz objektu, kas nozīmē, ka funkcijas un atribūti tiek glabāti kopā vienā vienībā vai objektā. Tas ir vēlams, salīdzinot ar ģeorelacionālo modeli, kurā funkcijas un atribūti tiek glabāti atsevišķi, bet savienoti kopā ar kopēju iezīmes ID. Šis ir tradicionālais modelis, un kopš ESRI ģeodatu bāzes koncepcijas tā izmantošana ir samazinājusies.

Ģeodatu bāzi var iestatīt vairākos veidos, lai samazinātu pieskaitāmās izmaksas datu vākšanā, taču īpaši svarīgi šajā jomā ir domēni, kas ierobežo veidu, kā datus var ievadīt vēlamajā objektu klasē. Tas ļauj ģeogrāfisko datu bāzu noformētājam norādīt noteiktu diapazonu, kurā varētu atrasties atribūts, vai atļaut izvēlēties no iepriekš norādītajām vērtībām. Iedomājieties, ka esat laukā, lai digitalizētu koku atrašanās vietas. Katram koka punktam jums jānoņem daži atribūti, piemēram, zemes segums tuvumā un koka augstums. Jebkurā pētījumā ir svarīgi samazināt laika laiku, un domēns var palīdzēt to sasniegt. Ja nejauši koka augstumam ievadījāt 100 metrus, nevis 10 metrus, domēns atpazīs, ka tas ir ārpus jūsu norādītā domēna, kas ir no 5 līdz 25 metriem. You would be able to recognize the input error, and correct it before bringing it back to the analysis stage, where this erroneous value would negatively effect your data. A domain could also be used for the ground-cover, providing a list of options to select, rather than forcing the user to manually enter in the same values over and over again (ie. grass, dirt).

In this exercise, we were tasked with the construction of a geodatabase, development of domains, and creation of a feature class for use in our microclimate survey that will be conducted later this semester. For the survey, we will be collecting many different pieces of data so it is important to consider how we want to store them. Generally, it is a good idea to use fewer feature classes with multiple attributes, which results in a clean, logical and queryable dataset usable for further analysis.

The data pieces that we will be collecting include: wind speed, wind direction, humidity, dew point, surface temperature, temperature at 2m elevation, wind chill, and notes. As I just mentioned, it is often advisable to aggregate data pieces into a single feature class, so that is what I will do. This will result in a single microclimate feature class, containing attributes that detail each of these different measurements.

Another important consideration when designing a geodatabase is the desired data type for the fields that will be used. In this example, the two general data types that will be used are text and numbers. However, there are a number of different number types that can be used, each with its own pros and cons.

This table shows number data types, detailing their storable range, application, and storage size.
For this particular study, I decided that using floats would be the best option for numerical data storage, because I wanted to be able to include decimal values, but didn't need the data range that doubles can provide.

The next step is to decide what kind of domains will be needed to facilitate field collection. I will now outline the conceptual basis for each domain, before providing a detailed tutorial on the creation of the geodatabase, development of domains, and creation of feature class.

Wind Speed: The wind can't go lower than 0, and it will almost certainly not exceed 50mph. As mentioned earlier, this will be stored as a float.
Wind Direction: This will be an azimuthal measurement taken with North as 0 degrees, up to 360 degrees. Also will be a float.
Humidity: Humidity is recorded as a percentage from 0 to 100%, which represents saturation.
Surface Temperature: Temperature normally doesn't fall below -40 degrees Fahrenheit even at this time of year, and certainly won't exceed 60.
Temperature at 2 Meters: Will use same domain values as above.
Dew Point: Since dew point is based on temperature, it makes sense to use the same domain range values as the temperature fields will be using.
Wind Chill: Won't drop lower than -40 either, so same domain can be used.
Ground Cover: Possible values include grass, snow, concrete, blacktop, gravel, water, or sand. It is also advisable to include an "other" option, in case an unforeseen value arises.
Notes: No domain will be used, but this field will be valuable in attaching any other important information to each micro-climate point.

Methods:

Begin by opening ArcCatalog and navigating to the folder that you would like to store your geodatabase in.

Select folder, and right click to choose New -- File Geodatabase
New File Geodatabase.gdb will be shown under the contents tab, so you can right click on it and choose rename, and call it Microclimate.gdb

Next, right click on your Microclimate.gdb and choose Properties.

Database Properties pop-up. Notice that I selected the Domains tab, as that is what we will be working on next.
The above window is where we will define the domains outlined in the previous section. Simply click the Domain Name box to create a new domain, and be sure to give it a relevant description.

Here is the populated Domains tab. Currently selected is the Ground Cover domain, which has a field type of Text, and a domain type of Coded Values. This basically means that fields with this domain will provide a selectable dropdown list of values, so they won't have to be typed repeatedly in the field. Click inside of the Code area to specify a relevant code, then click in Apraksts to add the appropriate land cover description as shown above. Refer to the previous section for complete list of coded values for ground cover.
The rest of the domains that will be added are numerical domains. They each use a floating point datatype, and just require a range of acceptable values to be specified.

The temperatures domain is selected. Note that the field type is a Float, and the minimum value is -40, and the maximum is 60. These represent the minimum and maximum acceptable values for temperature in Fahrenheit.
Add the remaining domains in this manner, specifying the minimum and maximum values illustrated in the introduction section. Remember to provide relevant descriptions to each domain.

Next, we will need to create a new microclimate feature class.

Right click on the Microclimate.gdb and select New -- Feature Class as shown above.
A new pop-up window will appear, name your feature class microclimate_[your username], and provide an alias if you'd like. Zem Type, choose Point Features. This specifies that the feature class we will be using will be points. Click Next.

You will now be prompted about the coordinate system that will be used for XY coordinates in this dataset. For now, we will leave this blank. Choose Next. An XY Tolerance option will appear, accept the default value (should be 0.001 Unknown Units). Click Next. A Configuration Keyword option will now appear, accept Default and choose Next.

Now, you will see the window shown below.

This is the window that allows you to add fields. These will be similar to the domains we added earlier, but will more closely follow the outline from the end of the introduction section. Recall that we will have the following fields: wind speed, wind direction, humidity, dew point, surface temperature, temperature at 2m, wind chill, ground cover, and notes.
Here are the Field Names and Data Types. Use either all caps, or all undercase letters, and don't allow spaces, dashes, or special characters in the field names. Also, be sure to choose Float as the Data Type, because our domains will only appear if the data-types match.
This area will be shown below the Field Name/ Data Type window shown above. In the Domain area, be sure to select the corresponding domain for each field. For example, for WIND_SPEED, choose the Wind Speed Domain from the drop-down. You won't see our Ground Cover domain as an option, because that is a text-based domain. On the GROUND_COVER field, choose text so the Ground Cover domain will be available.
Set up your remaining domains in this fashion. Remember that DEW_POINT, TEMPERATURE_SURFACE, TEMPERATURE_2M and WIND_CHILL will all be using the Temperatures domain. NOTES will use no domain at all, allowing us to input any notes, not restricted by values.

It is also advisable to import basemap data into your geodatabase for reference while in the field, and the process for doing this depends on your area of interest, and data availability.

Discussion:

The geodatabase, domains, and feature class that were just created will be helpful for our microclimate survey, and will reduce the busy-work that would be done in the field by taking multiple points for each attribute. It will allow for stream-lined data collection, taking microclimate data readings at each point, and simply inputting the data into each proper field on the GPS device. It is also worth noting, however, that over-aggregation can also be problematic. If there are two different data pieces that have distinct functions, they should be put in separate feature classes.


You are going to open an external link to the presentation as indicated by the authors. Copernicus Meetings cannot accept any liability for the content and the website you will visit.

We are sorry, but presentations are only available for conference attendees. Please register for the conference first. Paldies.

Vineyards are crops whose production has a major economic impact in the Portuguese economy (

750 million euros) being exported worldwide. As the climate models project a larger variability in precipitation regime, the water requirements of vineyards can change and drip irrigation can be responsible for salt accumulation in the root zone, especially when late autumn and winter precipitation is not enough to leach salts from the soil upper horizons, turning the soil unsuitable for grape production.

The aim of this work is to present a methodology to map surface soil moisture content (SMC) in a vineyard, (40 hectares) based on the application of two classification algorithms to satellite imagery (Sentinel 1 and Sentinel 2). Two vineyard plots were considered and three field campaigns (December 2017, January 2018 and May 2018) were conducted to measure soil moisture contents (SMC). A geostatistical method was used to estimate the SM class probabilities according to a threshold value, enlarging the training set (i.e., SMC data of the two plots) for the classification algorithms. Sentinel-1 and Sentinel-2 images and terrain attributes fed the classification algorithms. Both methods, Random Forest and Logistic Regression, classified the highest SMC areas, with probabilities above 14%, located close to a stream at the lower altitudes.

RF performed very well in classifying the topsoil zones with lower SMC during the autumn-winter period (F-measure=0.82).

This delineation allows the prevention of the occurrence of areas affected by salinization, indicating which areas will need irrigation management strategies to control the salinity, especially under climate change, and the expected increase in droughts.

How to cite: Mendes, M. P., Falcão, A. P., Matias, M., and Gomes, R.: Soil moisture assessment based on Sentinel 1/2 and in-situ data: The vineyard case study, EGU General Assembly 2021, online, 19–30 Apr 2021, EGU21-16507, https://doi.org/10.5194/egusphere-egu21-16507, 2021.

Remote sensing has proven to be an irreplaceable tool for monitoring soil moisture. The European Space Agency (ESA), through the Climate Change Initiative (CCI), has provided one of the most substantial contributions in the soil water monitoring, with almost 4 decades of global satellite derived and homogenized soil moisture data for the uppermost soil layer. Yet, due to the inherent limitations of many of the remote sensors, only a limited soil depth can be monitored. To enable the assessment of the deeper soil layer moisture from surface remotely sensed products, the Soil Water Index (SWI) has been established as a convolutive transformation of the surface soil moisture estimation, under the assumption of uniform hydraulic conductivity and the absence of transpiration. The SWI uses a single calibration parameter, the T-value, to modify its response over time.

Here the Soil Water Index (SWI) is calibrated using ESA CCI soil moisture against in situ observations from the International Soil Moisture Network and then use Artificial Neural Networks (ANNs) to find the best physical soil, climate, and vegetation descriptors at a global scale to regionalize the calibration of the T-value. The calibration is then used to assess a root zone related soil moisture for the period 2001 &ndash 2018.

The results are compared against the European Centre for Medium-Range Weather Forecasts, ERA5 Land reanalysis soil moisture dataset, showing a good agreement, mainly over mid-latitudes. The results indicate that there is added value to the results of the machine learning calibration, comparing to the uniform T-value. This work contributes to the exploitation of ESA CCI soil moisture data, while the produced data can support large scale soil moisture related studies.

How to cite: Grillakis, M. G.: A regionally explicit, global SWI calibration based on ISMN observations, EGU General Assembly 2021, online, 19–30 Apr 2021, EGU21-496, https://doi.org/10.5194/egusphere-egu21-496, 2021.


Skatīties video: Debugging With GDB