ssf logo blue Rötter - din källa för släktforskning driven av Sveriges Släktforskarförbund
ssf logo blue Rötter - din källa för släktforskning

Choose language:
Anbytarforum

Innehållet i inläggen på Anbytarforum omfattas inte av utgivningsbeviset för rotter.se

Författare Ämne: Avancerade funktioner för publicering på Internet  (läst 2272 gånger)

2003-12-13, 01:12
läst 2272 gånger

Anders Andersson

Jag nämnde tidigare exemplet EMIHAMN/EMIBAS, där man på samma CD har två olika sökformulär, ett för vardera databasen.
 
Jag vet inget om dessa databasers interna uppbyggnad, men de är så pass gamla att jag inte skulle tro att de använder XML.
 
Frågan är nu: Räcker det verkligen med att införa XML för att dessa två sökformulär skall bli ett? Är det avsaknad av XML som gjort att man skapat ett separat sökformulär för varje databas, eller finns det något annat skäl?

2003-12-13, 05:02
Svar #1

Anders Andersson

Apropå SourceForge, så har man där utsett PhpGedView som nämnts tidigare i denna diskussion till Project of the Month för december 2003. Noteras bör att SourceForge hyser i storleksordningen 75.000 projekt, så det är en exklusiv skara som erhåller ett dylikt erkännande.

2003-12-13, 10:26
Svar #2

Patrick Lindblom

Som svar på Anders A:s inlägg den 13 dec 2003 kl. 00.22.
 
Anders A: När jag skriver implementation så menar jag programkod och andra hjälpmedel som kan användas direkt för det avsedda ändamålet, även om det bara är en liten utvald skara som har tillgång till den.
 
Som sagt - om detta är vi överens. Jag angriper frågan från en annan utgångspunkt än du och det är kanske källan till vår språkförbistring. Jag tror dock inte att ett byte till engelska löser detta, då vi har en adekvat vokabulär även på svenska - även om denna består mest av engelska låneord. J
 
Jag anser det inte vara en teknisk fråga att komma överens om hur vi skall klassificera information. Vi använder oss förstås av teknik för att genomföra det hela, men till syvende og sidst handlar det om att du och jag skall komma överens om huruvida en persons gifte(n) skall vara egenskaper på personen själv eller utgöra ett eget objekt (ett relationsobjekt). Vi använder samma teknik för att beskriva det vilket det än blir, men valet gör vi som ett kontrakt oss emellan. Det har tekniken ingen del i. Åtminstone inte så länge tekniken inte sätter begränsningar för vad vi vill åstadkomma, men där är vi knappast idag.
 
Angående patent på program: Vad juristen menar är nog att dataprogram i Sverige ligger närmare upphovsrättsliga frågor än patent. Själv tycker jag det är alldeles i sin ordning. Det är spektakel att programkod ensam kan patenteras i USA. Men det är en annan diskussion. Jag lämnar den tills vidare.
 
Du skriver vidare: Men för att [en] standard skall komma till stånd så behöver vi fungerande implementationer av det vi vill göra. Du kan inte lansera en standard för något innan du ens kan visa ett fungerande program som följer den specifikation du vill göra till standard.
 
Visst kan jag det. Jag skulle kunna inleda ett standardiseringsarbete på momangen om jag hade resurser, d.v.s fick betalt. Problemet skulle inte bli att ta fram ett diskussionsunderlag eller kalla samman en standardiseringskommitt? (om vi hade resurser). Problemet skulle bli att i den gruppen + remissinstanser komma överens om ett kontrakt - en standard för utbyte av släktforskarinformation - som kan få snabb acceptans och implementeras. Att ta fram själva koden skulle inte vara något större problem alls.
 
Att en prototyp skulle komma att höra till detta arbete är ju snarast en marknadsföringsgrej än en förutsättning. Det är mycket lättare att sprida en standard om man kan visa hur den är tänkt att användas, men det är ju inte helt nödvändigt.
 
Jag håller med om att vi inte skall lösa problemen här, det är inte möjligt. Vilken utvecklingsplattform man skulle använda känns rätt avlägset. SourceForge kan säkert fungera, men det skulle förstås också gå att sätta upp något annat.
 
Jag vet inte om det är så att vi inte använder samma språk. Det är möjligt. Men jag tror återigen att det mer handlar om att vi ser denna fråga från olika håll. Stämmer följande? Du vill se en implementation av den funktionalitet du har som vision. Först därefter tycker du att det finns underlag för att börja tala om standard. Korrekt?
 
Jag tror att vi delar samma vision, men jag ser inte implementationen och funktionaliteten som utmaningen. Jag ser informationsklassificeringen - objektmodellen om du så vill - som utmaningen. Om vi kan beskriva information som har med släktforskning att göra på ett så flexibelt och smart sätt som möjligt så kommer implementationerna av allehanda stödprogram att bli mycket enklare. Dessutom tycker jag inte att det är upp till mig att försöka komma på alla applikationer släktforskarrörelsen skulle vilja ha. Med en bra informationsmodell ligger fältet fritt för utvecklare som vill skapa nya saker.
 
Hälsningar
Patrick
 
P.S Jag vet att den nämnda sidodiskussionen är den som denna tråd härrör från. Jag ville bara illustrera att standardiseringsarbete som sådant ofta bedrivs parallellt. Den bästa standarden vinner inte alltid, men chansen finns i alla fall.

2003-12-13, 12:14
Svar #3

Patrick Lindblom

Lennart L: Jag håller med om mycket av det du skriver, men XML är redan standard, även i praktisk användning. XML används i väldigt många applikationer och inte bara över internet.
 
C# och .Net-verktygen har inte så mycket med detta att göra, tycker jag. Om du tänker på Web Services så går det ju lika bra att framställa sådana med andra verktyg och miljöer, t.ex. Java, Cold Fusion, PHP m.fl.
 
XML är i den meningen bara ännu ett filformat. Det går utmärkt att framställa bra XML-filer även med gamla programspråk och även scriptspråk som ASP, PHP m.fl.
 
Utvecklingsverktyg finns alltså, men det kanske inte ännu finns någon integrerad svit med verktyg både för programmering och design av XML-scheman. Det tror jag dock inte är avgörande. Det finns ju verktyg som XMLSpy och allt vad de heter för att jobba med XML-definitioner.
 
Databaser som kan exportera direkt i XML-format finns också idag (precis som de kan exportera kommaseparerat), men det är kanske inte på det sättet man kommer att använda tekniken främst i framtiden. Jag tror att det kommer att finnas en uppsjö tjänster på nätet som tar emot och lämnar svar i form av välformaterade XML-dokument, d.v.s följer ett väldefinierat schema eller DTD (hellre schema, DTD:er är för svaga på typning). Men det är tjänsterna som sådana som är intressanta, inte vilken databasmotor som ligger i botten.
 
Vad gäller GEDCOM, så har jag faktiskt inte sett själva specen, men jag är hittills inte imponerad av de tillämpningar jag har sett som nyttjar GEDCOM-formatet. Det är väldigt mycket information som faller bort i export/import mellan t.ex. MinSläkt och Disgen.
 
Anders A: SourceForge skulle säkert vara bra som bas för själva systemutvecklingen. Om det fungerar även för modelleringsdiskussioner vet jag för lite om. Jag har följt lite projekt på SF, men inte deltagit själv i något ännu.

2003-12-13, 12:18
Svar #4

Patrick Lindblom

Svar på Anders inlägg gällande EMIHAMN/EMIBAS
 
Jag var på RA igår fredag och noterade exakt samma sak! Jag har inte nyttjat CD-Emigranten tidigare.
 
Jag skulle tro att det inte räcker med att införa XML för att lösa problemen där. Det handlar återigen om informationsklassificering - troligtvis skiljer sig modellerna åt, kanske för att det är olika personer/grupper som har tagit fram dem?
 
Det är exakt det jag avser när jag säger att för mig är informationsmodellen mycket viktigare än funktionerna som sådana. Är bara modellen genomtänkt och generell så blir det enkelt att skriva ett bra sökgränssnitt som fungerar mot alla databaser.

2003-12-13, 14:51
Svar #5

Utloggad Daniel Berglund

  • Anbytare *****
  • Antal inlägg: 1041
  • Senast inloggad: 2023-02-24, 22:06
    • Visa profil
    • www.amaze-a-vole.com
Ett litet påpekande: en DTD anger inte hur data i en XML-fil ska tolkas - den bara anger ett antal rätt enkla syntaktiska villkor på XML-filen. XML-Schema gör i princip samma sak, men man kan ställa upp mera komplicerade villkor.
 
XSL är ett enkelt språk för att transformera XML-filer till andra XML-filer. Man kan naturligtvis använda något annat programspråk istället, XSL är inget magiskt.
 
Det finns fortfarande inget sätt för ett program att kunna förstå en godtycklig XML-fil. Detta kommer av uppenbara skäl aldrig att finnas heller. Det är därför som Patrik har helt rätt när han säger att informationsmodellerna är det viktiga, det är dem man ska försöka standarisera. Och där tror jag att det går som det brukar gå: det uppstår ett flertal olika modeller, men med tiden utkristalliseras det en eller ett par stycken som gäller som defacto-standarder. Någon av dem blir så småningom kanske utsatt för formell standarisering, men det är en långsam process.

2003-12-13, 23:38
Svar #6

Anders Andersson

Ok, nu ser jag vad du syftar på med informationsklassificering, och då är jag med på noterna i det avseendet.
 
Vi har däremot fortfarande olika utgångspunkter när det gäller turordningen i standardiseringsprocessen. Det kanske beror på att vi talar om olika standarder? Du talar om standarden för informationsklassificering; där finns såvitt jag förstår redan de grundläggande verktygen (för bearbetning av XML-data), alltså implementationerna. Denna standardisering sysslar redan andra med, så jag väljer att koncentrera mig på det som blir kvar, den parallella sökningen i multipla databaser och sammanställningen av delresultaten. Detta är kanske ett enklare problem, men det är likafullt av intresse för standardisering.
 
En skriven specifikation kan vara tillräckligt underlag för en överenskommen standard, om den är felfri och alla förstår den. I brist på formella verifieringsmetoder är det dock angeläget att specifikationen har testats genom praktiska implementationer, precis som man kombinerar teoretiska beräkningar och praktiska vindtunnelexperiment när man konstruerar flygplan. För att en protokollstandard skall godkännas för Internet fordras minst två, inbördes kompatibla, implementationer utifrån samma specifikation.

2003-12-14, 15:58
Svar #7

Patrick Lindblom

Jag pratar helt enkelt om en vettig informationsmodell för genealogisk information. Därför att utan en sådan kan det som du är ute efter - parallell sökning i multipla databaser och sammanställning av delresultat - aldrig bli verklighet.
 
Är det kanske så enkelt att du tittar på funktionalitet (vinsten för användarna) och jag tittar på arkitektur (hur vi kan nå dit)?
 
Jag tror inte alls att ditt problem är enklare, men jag tror att mitt problem är en förutsättning för att kunna lösa ditt. Men inget hindrar ju att man jobbar på de båda parallellt. Att göra en specifikation för hur man tänker sig att detta skall fungera och börja speca API:er, Web Services o.s.v. går ju jättebra, så länge man i sin modell då antar att det kommer en standard för hur informationen skall utbytas.
 
Vad gäller prototyper och verifiering så är vi helt överens. Min poäng i sammanhanget rörde det faktum att det inte är absolut nödvändigt med en prototyp för att kunna ta fram en standard. Däremot är det absolut nödvändigt med en standard om flera system / noder skall kunna utbyta information med varandra. Men att man bygger en prototyp när man jobbar med standardiseringar är ändå en självklarhet - för verifiering, men också för marknadsföring.

2003-12-14, 18:58
Svar #8

Anders Andersson

Jo, jag tittar på funktionaliteten, men jag försöker också se (i grova drag) vilka komponenter som behövs för att åstadkomma denna funktionalitet. En av dessa komponenter är informationsmodellen, men arbetet med den pågår alltså redan (jag har inte undersökt hur snabbt det framskrider).
 
En annan komponent är ramverket; hur knyter vi ihop databaserna, användargränssnitten och dokumentationen till en fungerande helhet? Vilka finansieringsmodeller är möjliga, dvs skall man erlägga avgifter i proportion till mängden ställda frågor och avgivna svar, eller bör kostnaderna täckas på andra sätt (reklam, frivilliga bidrag)? Behövs någon form av åtkomstkontroll, eller skall alla data anses publicerade och därmed i princip lika tillgängliga för alla?
 
Informationsmodellen är helt klart en förutsättning för att åstadkomma den önskade funktionen, men vi måste inte invänta en färdig DTD för just släktforskningsdata för att kunna diskutera (och även implementera) olika metoder för informationsutbyte.
 
Sedan vill jag även skilja prototyper och (fungerande) implementationer åt. En prototyp är att betrakta som en modell för visning; den innehåller kanske en uppsättning testdata, men den är vanligen inte praktiskt användbar. En implementation fungerar och kan användas också i praktiken, även om den inte vunnit erkännande som standard (det kan finnas flera konkurrerande implementationer, ej kompatibla med varandra).
 
Jag har nämnt DISBYT som exempel på en implementation (av ett system för matchning av data ur olika databaser). Har du använt DISBYT själv? Om inte, så är förstås exemplet inte särskilt illustrativt utan en närmare beskrivning.

2003-12-14, 19:38
Svar #9

Anders Andersson

Antag att vi har en DTD, så att varje databas av intresse för släktforskare kan representeras i XML.
 
En forskare vill ställa en fråga till databasen. Eftersom frågan bygger på att forskaren redan har några uppgifter om den sökta personen, så kan även frågan representeras som en post i XML. De sökta upplysningarna utgörs av tomma fält i frågeposten, fält som uttryckligen är markerade i hopp om att de skall fyllas med data.
 
Det jag vill illustrera är att det inte är någon större skillnad mellan en fråga och den databas som förväntas innehålla svaret på frågan. Det finns tomma fält i databasens poster, och det finns tomma fält i frågan. Databasen innehåller en massa annan information än den sökta, men även frågan kan innehålla överflödig information som inte är till hjälp vid sökningen.
 
Frågan kan i princip betraktas som en databas med bara en post, och vad forskaren gör är därmed att samköra två databaser med varandra för att hitta eventuella gemensamma data. Det rör sig med andra ord om en symmetrisk operation. Är alla med på detta resonemang, eller behöver det motiveras bättre?

2003-12-14, 20:06
Svar #10

Per-Åke Svensson

Jag har inte tittat på den här diskussionen tidigare  men tycker att den är väldigt intressant.
 
Jag kan bara hålla med Patrick Lindholm om att den grundläggande förutsättningen för att åstadkomma ett fungerande informationsutbyte är den gemensamma informationsmodellen. Finns inte den kan man använda vilken teknik som helst - det kommer ändå inte att gå bra.
 
Men jag skulle egentligen vilja ventilera några tankar som berördes en bit längre upp: Hur skall man hantera kvaliteten? Det bör man ha några tankar om innan man standardiserar en informationsmodell. Kvalitesuppgifterna måste nämligen också in i informationsmodellen.
 
Ett sätt som i modifierad form skulle kunna tillämpas är det som användes i teknisk dokumenthantering. Där är det så att ett dokument kan ha flera statusnivåer, dock minst: under utarbetande, under  granskning, gällande och indraget (draft/reviw/valid /withdrawn). I dokumenthanteringssammanhang slussas ett dokument från en statusnivå till nästa genom att det utsätts för granskning av utsedda granskare.Granskaren godkänner och därigenom kan status förändras.
 
I sin grundform kan den här metoden bara tillämpas  inom släktforskning om man har någon form av etablerad granskningsfunktion. En sådan är med all  säkerhet omöjlig att åstadkomma för en större domän.
 
Man måste iställetr försöka få metoden att fungera på kollektiv basis, kanske såhär:
 
1. Se till att man kan åsätta såväl objekt som relationer dessa statusnivåer. När en uppgift läggs ut kan den bara få status under utarbetande.  
 
2. För att status skall ändras till under granskning måste källhänvisning anges.
(Där finns förstås ett formuleringsproblem)
 
3. Uppgifterna måste sedan veriferas av någon eller hellre ett antal personer, genom att de bekräftar källan. (Här måste man alltså ha tillgång till något standardiserat sätt att ange källa.)  
 
4. När detta skett kan status automatiskt ändras till gällande  
 
5. Indragen skulle en uppgift kunna bli om någon källa visat sig vara falsk eller vilseledande.
 
Synpunkter?
 
Mvh/Per-Åke

2003-12-14, 21:07
Svar #11

Anders Andersson

Kvalitetsuppgifterna, vare sig de utgörs av källhänvisningar i klartext eller någon form av nivågradering, räknar jag till metadata, alltså data om data. Uppgiften att Per Olsson föddes den 12 maj 1845 är data. Uppgiften att jag den 9 juli 1997 hittade och förde in Per Olssons födelsedatum i min databas, liksom anteckningen om var jag hittade uppgiften, är metadata.
 
Metadata måste finnas med i den totala informationsmodellen, men de hör inte nödvändigtvis hemma i samma DTD (Document Type Definition) som de persondata vi i grund och botten arbetar med. Jag vill nämligen kunna förse alla data med metadata, och till exempel kunna ange en källa för födelsedatumet men en annan för födelseorten.
 
Eftersom metadata är användbara inom all informationshantering, och nödvändiga för att bedriva meningsfull forskning (såsom släktforskning), förmodar jag att det finns eller kommer att finnas någon generell DTD eller liknande just för metadata. Det vore i så fall bra om man i arbetet med att skapa en DTD för persondata använder sig av en färdig modell för metadata, snarare än konstruerar en egen modell för personmetadata.
 
Din kvalitetsklassning är ett exempel på metadata, och Patrick har tidigare givit ett snarlikt exempel. Som du påpekar kan man inte använda samma klassning i en löst sammanflätad grupp av oberoende forskare som i en hierarkisk organisation där någon instans har sista ordet rörande klassningen av en uppgift.
 
Jag tycker dock inte att ditt förslag ovan skiljer sig nämnvärt från de statusnivåer inom teknisk dokumenthantering du inledningsvis nämner. I båda fallen finner jag det oklart vem som åsätter en uppgift en viss statusnivå eller klassning. Är det jag som enskild forskare som skall göra det, eller den jag lämnar mina uppgifter till, eller någon annan?
 
Precis som när det gäller källhänvisningar, som ju kan vara olika för en och samma uppgift beroende på hur den har inhämtats, så tror jag att klassningen kan variera beroende på vem som utför den. En uppgift som jag hittat på Internet kan jag ju klassa som falsk eller i bästa fall grundlös, men den forskare vars uppgift jag därmed ifrågasatt gör sannolikt inte samma bedömning. Vem skulle ha makt att i någon mening dra in en sådan uppgift?
 
Så, det enda jag ser att denna kvalitetsklassning tillför är ett sätt för andra att kommentera den enskilde forskarens arbete. Det kan i sig vara mycket värdefullt, men det ger oss inte någon objektiv kunskap om uppgifternas tillförlitlighet.

2003-12-14, 22:18
Svar #12

Anders Andersson

Per-Åke, du använde en formulering jag reagerade på: Se till att man kan åsätta såväl objekt som relationer dessa statusnivåer.
 
Jag förmodar att du med objekt här avser personobjekt, och relationer är alltså släktrelationer. Är det rätt uppfattat?
 
Jag vill spontant inte göra någon åtskillnad mellan uppgifter om släktrelationer (gift, barn, adopterad osv) och uppgifter om personer (född, död). Båda slagen av uppgifter är hämtade ur samma källor, och vi vill förstås behandla dem lika källkritiskt.
 
DISGEN låter mig ange källa för varje notis avseende en person eller ett gifte, men länkelementen (man/hustru/barn  gifte) saknar källfält. Om jag har säkra uppgifter rörande dels ett gifte mellan två personer, dels en person som är 25 år yngre än de båda makarna, men bara misstänker att den yngre personen är barn i det giftet, så kan jag inte uttrycka denna osäkerhet med en kommentar i källfältet, för det finns inget källfält som avser själva länken mellan gifte och barn!
 
Särskilt när man skall sammanställa uppgifter från ett stort antal forskare, så finner jag det angeläget att man kan gradera tillförlitligheten också för familjerelationerna, inte bara för personnotiserna. En och samma person bör kunna ha alternativa föräldrapar dokumenterade i samma databas, med olika källor, precis som jag kan ge personen två födelsenotiser i avvaktan på att jag kommer underfund med vilken som är riktig.
 
Jag hade för mig att jag skrivit om detta på GenWeb-listan, och det visade sig stämma, fast bara i förbigående, i samband med att vi diskuterade källkritik och projektorganisation våren 1995. Vi kom givetvis inte mycket längre än så. Nostalgi...

2003-12-16, 00:13
Svar #13

Per-Åke Svensson

Kommentar till Anders Andersson:
 
Ja, med objekt avsåg när jag skrev det personobjekt och med relationer släktrelationer.
I striktare datatekniskt mening bör båda slagen ses som objekt, i och med att en stor mängd information skall kunna knytas till båda, bla metadata.  
Men skall man diskutera kraven på modellen bör man nog börja med mera verklighetsnära terminologi för att diskussionen inte skall bli för abstrakt misstänker jag.
 
I DISGEN, som jag också använder, uppträder ju då person och gifte/föräldrapar som objekt, medan relationerna skapas i applikationen utan möljighet  till kommentarer.  
 
En sådan modell är uppenbarligen för enkel, för att man på ett strukturerat sätt skall kunna hantera vissa relationer tillfredsställande. Hur skall man exempelvis hantera adoptioner? I den vanliga modellen sätter man ju likhetstecken mellan biologiskt föräldraskap och socialt. I många fall skulle man ju vilja kunna skilja på det eftersom en människas beteende formas av såväl biologiskt arv som social miljö. Informationsmodellen borde tillåta det, sen är det naturligtvis så att man via applikationen får välja vad man vill se i ett enskilt fall.
 
Källhänvisningmöjligheter på relationerna är också behövliga.
 
När det sedan gäller kvalitetsgraderingen och vem som betsämmer så var den id? jag hade att (i metadata) lagras källhänvisning och att antal namn på personer som bekräftar hänvisningen riktighet.  Det skulle alltså vara ett kollektivt beslut i en på förhand inte utsedd grupp. (Vill man utveckla det långt skulle man kunna tänka sig att man vidimerar (på heder och samvete) med sin elektroniska signatur (bankcerifikat)att man kontrollerat källan och kommit till samma resultat.
 
Vill man sedan tänka vidare kan ju föreställa sig någon fildelningsteknik som i musiknedladdningsprogrammen (Kazaa och liknande) skulle kunna komma till användning.
 
Frågan om osäkerhet borde kunna behandlas på så sätt att man inför en klassning av infomationen.
 
Alternativa föräldrapar skulle naturligtvis aldrig kuna avancera längre än till under arbete / draft. Riktiga dokumenthanteringssystem kännetecknas av att man kan ha flera dokumentversioner under arbete samtidigt, så problemet med alternativa föräldrapar har en känd lösning.
 
Mvh/Per-Åke

2003-12-16, 01:04
Svar #14

Anders Andersson

Jag använder inte ord som objekt till vardags i släktforskningssammanhang, så jag tycker det känns konstigt att göra olika tolkningar av det beroende på hur teknisk man vill vara. Hur som helst är det inte terminologin som bekymrar mig, utan just det faktum att man i DISGEN (och kanske också i andra program) till synes har valt informationsmodell på programmeringsteknisk snarare än forskningsmässig grund. Andra uppgifter i DISGEN som saknar fält för källhänvisning är för- och efternamn, yrke, adress och textnotiser (jag tänker här på DISGEN version 6, som jag själv ännu använder). Med en annan abstraktionsnivå är det själva giftet som utgör länk mellan personerna. Det går dock inte att åsätta giftet som helhet en källhänvisning och låta den gälla för alla berörda personlänkar, eftersom uppgifterna kommer ur flera olika källor.
 
Möjligheten att signera andras forskningsresultat för att intyga dess korrekthet är intressant, men ingenting jag har sett tillämpas i släktforskningen på den detaljnivå vi här talar om. Kritik av andras publicerade resultat förekommer i form av enstaka rättelser samt helhetsomdömen, men när uppgift står mot uppgift är det ändå läsaren som får försöka bedöma vem som har rätt. Vad den bedömningen grundar sig på varierar nog från läsare till läsare, och även om flertalet erfarna läsare brukar komma till samma slutsats är jag inte övertygad om att det här är en process vi kan automatisera. Snarare kan vi stödja läsaren genom att redovisa såväl källor som andra metadata för jämförelse. Tanken att certifiera vissa forskare för att automatiskt ge deras uppfattning större tyngd tror jag inte alls på.
 
Såväl den grundläggande informationsmodellen för persondata som tillhörande metadata är saker som rimligen redan diskuteras på annat håll, kanske med konsekvenser för de verktyg vi själva använder om några år. Jag tror det vore nyttigt att ta reda på vad som händer på den fronten, så att vi kan relatera vår egen diskussion till det. Just nu känns det som om vi i viss mån famlar i blindo.

2003-12-16, 09:25
Svar #15

Patrick Lindblom

Anders A skrev: Hur som helst är det inte terminologin som bekymrar mig, utan just det faktum att man i DISGEN (och kanske också i andra program) till synes har valt informationsmodell på programmeringsteknisk snarare än forskningsmässig grund.
 
Exakt! Och för att lyckas med en global sammankoppling av information måste vi komma längre på det området.
 
Möjligheten att signera andras forskningsresultat för att intyga dess korrekthet är intressant, men ingenting jag har sett tillämpas i släktforskningen på den detaljnivå vi här talar om.
 
Nej, men om vi skall ha ett sådant utbyte i en distribuerad databas måste vi ha något system för värdering av information. Det finns säkert andra, men granskning/signering fungerar ju i andra världar. Det är ju också så att inte varje person i en släktutredning måste signeras för att forskningsresultaten skall kunna användas. Det räcker ju med vissa huvudmän som har många gemensamma avkommor som återspeglas i olika utredningar.
 
Tanken att certifiera vissa forskare för att automatiskt ge deras uppfattning större tyngd tror jag inte alls på.
 
Det kanske inte alls fungerar, vad vet jag. Tycker dock att nya id?er är värda att diskutera.
 
Ett annat alternativ är ju att man som metadata kan ha ett kritikforum där man kan kommentera, kritisera o.s.v. Det blir då lite rundare former på det hela (men också svårare att värdera)
 
Såväl den grundläggande informationsmodellen för persondata som tillhörande metadata är saker som rimligen redan diskuteras på annat håll, kanske med konsekvenser för de verktyg vi själva använder om några år.
 
I den meningen tror jag nog att diskussioner även om funktionalitet också pågår på andra ställen. Tanken att det kan finnas någon annan som har tänkt samma tanke som du får ju inte hindra dig själv från att utveckla dina id?er.
 
Det är så de facto-standards uppstår.
 
Hälsningar
Patrick

2003-12-16, 09:39
Svar #16

Lennart Lindström

Per-Åke och Anders
Läser Er diskussion med stort intresse och har ganska lite att tillföra. Kan bara hålla med. Jag kan för lite om just olika släktforskningsprogram, men tycker av vad jag sett att de verkar antika. Nya program, som klarar det Ni efterlyser måste väl komma när som helst?
 
Funderar just nu själv på att bygga mig mitt eget program för släktforskning i Visual Basic.net och SQL Server (delvis som egen utbildning, kan databasdelen SQL Server, men VB.net är mer okänd mark).
 
Inget av Era olika önskemål verkar vara svårt att koppla till mina egna  funderingar om en tänkbar modell-lösning. Jag lagrar data enklast på min SQL Server. (Att lagra och söka data via textfil är möjligt men krångligare). Mina problem är import. Jag gillar inte skriva in texter manuellt, som redan finns digitalt eller kan scannas in. (Export klarar jag alltid halvmanuellt)
 
Halv-automatisk import av Leif A Boströms genealogi på Internet med över 3 300 poster om Buresläkten gick förvånansvärt fort att fixa (halv- därför det går snabbare klicka manuellt än skriva sista bitarna kod för helautomatisa växlingar). Övriga saker jag sett på Internet kan jag (sannolikt) också enkelt tvätta och importera via särskilda program för detta.
 
Ett ex: Jag hittar ofta inlägg i Anbytarforum (är ännu nybörjare, med massor av ärvt pappersmaterial) och lär väl bygga en modul till som kopierar, tvättar och lagrar data i relevanta inlägg där, för inmatning i min databas
 
Min tanke är att olika modeller klaras via översättningsmoduler, dvs du ser ett annat programs benämningar, och kan då direkt i ett fönster välja (klicka) vad detta ska importeras som eller kopplas till via en eller flera kopplade vallistor (så brukar jag försöka göra).
 
Fördelen med släktforskningsprogram är ju att relationerna ändå är så få och självklara. Modellalternativen likaså.  
 
Om till och med jag (nästan) kan bygga det program som krävs, då måste det finnas tudentals andra som klarar detta?
 
Men ännu funderar jag mest på min kravspecifikationen, och Era inlägg är intressanta för mig.  
 
Annat jag funderar på: Hur kommer digitalkameror in i systemen, inmatning från mikrokort, andra datakällor. Kan 1600-tals skrifter läsas via digitalkameror och Optical Character Reading? (OBS: jag är nybörjare)
 
För alla uppgifter lär till slut hamna på Internet. Vi är ännu bara i början av början.

2003-12-16, 11:27
Svar #17

Patrick Lindblom

Anders frågade lite tidigare i tråden om jag har använt DISBYT. Inte skarpt, d.v.s inte i min egen forskning än så länge. Och därför har jag t.ex. inte sett familjelänken i ett DISBYT-utdrag.
 
Men i det lilla jag har sett saknar jag bl.a just möjligheten att kunna bedöma kvaliteten i de enskilda utdragen.
 
Jag har dock några bidrag till DISBYT nu och skall lägga in det och se vad jag kan få ut då.

2003-12-16, 14:50
Svar #18

Anders Andersson

Den väsentliga poängen med DISBYT (dvs det som jag tror låg bakom att man en gång skapade systemet) är den systematiskt genomförda matchningen av posterna i en inskickad databas mot alla poster i alla tidigare skickade databaser (på det viset är DISBYT en meta-databas, alltså en databas innehållande utdrag ur enskilda forskares databaser). Om jag skickar in uppgifter om 800 individer, så betyder det att jag dels ställer och får svar på 800 frågor parallellt, dels utökar DISBYT med 800 nya poster att nyttjas vid framtida matchningar.
 
Möjligheten att söka efter enstaka personer i DISBYT är något som har tillkommit senare, i och med att DISBYT gjorts tillgänglig på WWW. Denna möjlighet är till gagn för frågeställaren, men eftersom frågorna inte tillför DISBYT några nya data begränsas utbytet för övriga forskare till eventuella nya kontakter, som frågeställaren ensam får ta initiativ till.
 
Att kvaliteten på de inskickade bidragen till DISBYT varierar ser jag inte som något stort problem, då syftet med DISBYT främst är att knyta kontakter och ge nya forskningsuppslag, inte att i sig utgöra en källa i den egna forskningen. Den som har läst ett årtal fel i husförhörslängden och skickar in det till DISBYT får antingen ingen träff, eller en träff med någon som har samma felaktiga uppgift (kanske för att årtalet var svårläst), och den kontakt som då etableras kan leda till att källan kontrolleras på nytt.
 
Det är möjligheten till parallella sökningar i många olika databaser som jag vill se utvidgad till Internet. Om jag medelst några få knapptryckningar kan få min egen databas jämförd med alla andras, då är chansen större att jag upptäcker felaktigheter än om jag begränsar mig till det fåtal databaser som jag har lärt mig söka i (och som kanske har hämtat sina data från samma felaktiga eller svårtydda källa som jag).

2003-12-16, 15:01
Svar #19

Anders Andersson

Jag drar mig till minnes att jag en gång på 1980-talet, långt innan jag skaffade DISGEN (1995), gjorde ett försök att skriva ett eget databasprogram för släktforskningsändamål, i BASIC på ABC80. Jag ägnade kanske en dag åt projektet innan jag gav upp, men det var hur som helst en nyttig övning att fundera ut vilka datastrukturer som skulle behövas för en sådan tillämpning.
 
Jag har kvar min ABC80. Den fungerar, men jag använder den inte, och jag har i praktiken aldrig använt den för släktforskningsändamål, trots att det var på en sådan som DISGEN en gång utvecklades.

2003-12-16, 15:46
Svar #20

Anders Andersson

Jo, visst kan man låta något välrenommerat organ certifiera vissa forskare för att deras utsagor automatiskt skall vägra tyngre än andras; det skulle säkert fungera i teknisk mening.
 
Problemet jag ser är att släktforskare inte gör så i dag, och att vi inte heller vill göra det. På det viset tillför vi en ny parameter (forskarens status) som inte håller för den källkritik vi i övrigt vill tillämpa.
 
Om jag får se två inbördes motstridiga uppgifter på Internet, då vill jag veta vilka källorna är, så att jag kan göra en bedömning av vilken källa som är mest trovärdig. Vem som har tagit fram uppgiften ur källan är av sekundär betydelse, särskilt om jag kan kontrollera båda källorna själv och jämföra. Om datorn då säger emot, och tvärtemot min bedömning ger uppgiften från forskare A högre poäng än den från forskare B, så måste jag också ifrågasätta grunderna för denna certifiering, trots att den till synes inte har med mitt forskningsproblem att göra.
 
Id?n är inte heller ny; på medeltiden litade forskarna hellre till Aristoteles skrifter om hur naturen var beskaffad än till sina egna observationer av densamma. Aristoteles var med dagens språkbruk certifierad och därför i det närmaste oantastbar i sin auktoritet. Jag vill inte återinföra det synsättet bara för att vi datoriserar släktforskningen.
 
Visst kan man vilja ha en möjlighet att peka ut rena falsarier, exempelvis när någon påstår att en uppgift är hämtad ur en viss källa trots att detta är lögn. Det tror jag vi löser bäst med kommentarer till de enskilda uppgifterna, utan att för den skull censurera dem. Utgångsläget bör ändå vara att nya uppgifter från tidigare okända forskare alltid välkomnas, i stället för att man intygar att en viss forskare aldrig har ljugit och aldrig kommer att ljuga. Hur kontrollerar jag den senare utsagan mot någon källa?

2003-12-16, 16:38
Svar #21

Per-Åke Svensson

En kort kommentar: Poängen med mitt föslag om att en uppgift skulle anses giltig om den kunde verifieras av flera icke i förväg utpekade forskare var just att man inte skulle certifiera en forskare som pålitligare än någan annan, utan just det att flera oberoende forskare med sitt namn (heder!) verifierade att man kontrollerat källan och kommit till samma slutsats. Därigenom är det uppgiften som får status som gällande. Omvänt skulle en verifiering av att källan kontrollerats men att man icke kommit till den aktuella slutsatsen göra att uppgiftens status sänktes från gällande till under arbete eller indragen.
Metoden är naturligtvis inte helt invändningsfri (majoriteten har inte alltid rätt, ett gäng skrupelfria individer skulle kunna missbruka systemet) men den skulle riktigt använd kunna höja status på så många uppgifter att en släktforskare inte alltid måste börja från början för att ha samvetet rent utan kunna bygga på en bas av allmänt erkända resultat.

2003-12-16, 17:34
Svar #22

Anders Andersson

Jag tror att jag förstår vad du menar med oberoende verifiering, men sättet du beskriver det på antyder att du vill se information om denna oberoende verifiering i en databas, i stället för att låta mångfalden av uppgifter i olika databaser utgöra denna verifiering. Det känns som en extra abstraktionsnivå som krånglar till forskningsarbetet snarare än underlättar det.
 
Min utgångspunkt är att alla objektiva metadata såsom källhänvisning, tidpunkt för uppgiftens framtagning, forskarens identitet osv skall finnas i de olika databaserna, och att vi i princip stannar där. Den användare (också det en forskare, men jag behöver ett annat ord) som söker i databaserna skall erhålla alla dessa uppgifter för att själv kunna värdera sökresultatet. Vilka kriterier som skall användas vid den värderingen är upp till användaren att avgöra.
 
Du vill gå ett steg längre, och lägga resultatet av en värdering i en databas, så att användaren kan tillgodogöra sig även denna. Det skadar i och för sig inte att man kan ta del av andras värderingar, men de skall väl i så fall jämföras med den egna värderingen, inte blandas ihop med de uppgifter man söker (och avser att värdera).
 
Jag tror att tekniken, rätt utnyttjad, ger oss tillfälle att precisera vårt förhållningssätt till släktforskningen och den egna rollen: Antingen forskar vi själva (med hjälp av andra), eller så lägger vi ut forskningsuppdraget på någon annan. Den som avser att forska själv skall också värdera alla erhållna uppgifter själv, vare sig man är nybörjare eller erfaren forskare. Om man lägger ut uppdraget på någon annan, då är det i stället den personen som värderar de enskilda uppgifterna, och själv får man nöja sig med att tacka för det utförda arbetet (eller kritisera det).
 
När du skriver bygga på en bas av allmänt erkända resultat, då har man egentligen lagt ut forskningsuppdraget på någon annan, i syfte att koncentrera sig på något ännu outforskat område. Detta kanske fungerar när man ger sig i kast med att leta ättlingar till Stormor i Dalom (andra har redan utrett hennes barn och barnbarn, och nu vill man följa upp en viss gren), men jag har svårt att se hur den nybörjare som ännu letar efter far- och morföräldrarna i födelseböckerna skall kunna hitta någon väsentlig mängd allmänt erkända resultat att bygga vidare på.
 
Om man har fått en antavla till skänks och vill kontrollera uppgifternas riktighet, så samkör man den med alla andra databaser man kan, ungefär som i DISBYT. Om det då trillar fram några motstridiga data, så får man anledning att undersöka dem. Om däremot allting ser ut att stämma med de uppgifter som andra har tagit fram, då finns det uppenbarligen inga kritiska kommentarer att hämta som man kan ha nytta av.
 
Kort sagt: Jag ser inte värdet av att tala om i en databas hur många samstämmiga eller motstridiga uppgifter det finns, när jag själv kan söka i alla databaser och därigenom få veta hur många samstämmiga eller motstridiga uppgifter det finns. Allting utöver den objektiva statistiken är subjektiva värderingar, som forskaren/användaren bäst gör själv, eventuellt med datorstöd men alltid enligt sina egna kriterier.

2003-12-17, 10:48
Svar #23

Patrick Lindblom

Anders A: Problemet jag ser är att släktforskare inte gör så i dag, och att vi inte heller vill göra det. På det viset tillför vi en ny parameter (forskarens status) som inte håller för den källkritik vi i övrigt vill tillämpa.
 
Jag är böjd att hålla med. Men jag tror ändå att någon sorts värderingsmöjlighet måste finnas. Om jag skall koppla ihop en gren i mitt eget träd med någon annans forskning vill jag ha en möjlighet att notera att den relationen utifrån mitt perspektiv är oforskad. Detta gäller ju särskilt om jag inte kan bedöma integriteten hos den andre forskaren.
 
Sedan tror jag att det finns en stor motsättning i våra respektive synsätt: Du verkar vilja göra det möjligt att korsbefrukta forskningen genom att söka i andras forskning över nätet. Men varje forskares resultat är fortfarande privat egendom och korsbefruktningen sker genom att jämföra namn, födelsedata o.s.v., precis som vi gör idag.
 
I min tankevärld vill jag försöka gå ett steg längre och identifiera individer så att olika personers forskning rent fysiskt kan kopplas ihop. Alltså: När jag har forskat fram en person som någon annan har forskat kring skall jag kunna knyta samman våra träd den vidare forskning jag gör (som alltså redan har gjorts av någon annan) går då ut på att verifiera det som den andra personen redan har forskat fram. Jag ägnar mig då att höja kvaliteten på informationen och kan ange detta i metadata för vårt nu gemensamma träd.
 
Ju fler som kan verifiera uppgifterna, desto högre kvalitet på den grenen.
 
Varför jag var inne på att någon sorts certifiering skulle kunna ske är att det ju kan finnas systemfel i den utförda forskningen och verifiering av felaktiga uppgifter kan ju tänkas ske om forskaren inte känner till möjliga felkällor eller så. Därför menar jag att det vore klokt att kunna verifiera vissa delar av trädet personer genom en mer kvalificerad forskare helt enkelt.
 
Men det kan ju vara svårt att genomföra, särskilt om forskarrörelsen som sådan inte vill arbeta så.

2003-12-17, 11:26
Svar #24

Utloggad Sten-Sture Tersmeden

  • Anbytare ***
  • Antal inlägg: 489
  • Senast inloggad: 2017-02-14, 20:51
    • Visa profil
Med risk för att klampa in utan att ha läst alla inlägg skulle jag vilja framföra en id? som jag grunnat på.
 
När man anger en källuppgift i ett släktforskarprogram skall man samtidigt klassificera kvalitetsnivån. Moster Agda får nivåsiffra 1, medans kyrkböckernas t ex födelsebok får 10. Säkerheten i tydningen skulle på sammas sätt anges med en nivåsiffra från 1 till 10. Nu kan man alltså väga ihop värdet av den uppgift jag lagt in.
 
För varje person finns givetvis ett större eller mindre antal uppgifter, var och en med sin källvikt. Dessa kan i sin tur räknas/vägas ihop - och jag får på detta sätt en Kvalitetstotal för min person. Vid presentationer på listor eller internet skall denna siffra kunna visas. Läsaren/mottagaren/mottagarprogrammet kan sedan använda denna siffra på lämpligt sätt.

2003-12-17, 14:49
Svar #25

Anders Andersson

Hur släktforskarrörelsen vill arbeta är en sak, medan hur den enskilde släktforskaren vill arbeta är en annan. Även om vi samarbetar om mycket och assisterar varandra, så är det den enskilde forskaren som definierar målet för sin forskning, och det är utifrån det perspektivet jag försöker se vilka tekniska hjälpmedel man vill ha.
 
Jag ser gärna att kollektivet definierar sina egna mål och efterfrågar hjälpmedel för att uppnå dem. Ett sådant mål skulle kunna vara att upprätta en gemensam databas med släktrelationer, där man inte nöjer sig med att objektivt försöka återge vad som faktiskt står i källorna, utan även gör den värdering som krävs för att med någon grad av visshet fastslå vilken uppgift som är korrekt.
 
Sådant kollektivt arbete utförs redan i mindre skala, exempelvis i de grupper som här i Anbytarforum engagerar sig för att utreda kändisars antavlor.
 
Jag vill dock att man noga skiljer mellan arbetet att tillgängliggöra källorna och arbetet att tolka dem. Det är samma åtskillnad som vi i dag gör mellan arkivet och forskaren. Arkivets uppgift är att tillhandahålla källmaterialet (både primär- och sekundärkällorna), medan forskaren får stå för tolkningsarbetet.
 
Denna åtskillnad tror jag att man uppnår genom att identifiera den person eller organisation som svarar för varje databas. Om Släktforskarförbundet vill ställa sig bakom ett gemensamt forskningsprojekt, så har vi redan en ansvarig organisation. I annat fall kan man skapa en organisation enkom för en viss databas, och det står den organisationen fritt att rekrytera intresserade forskare för att hjälpa till att bygga upp databasen, liksom att avgöra vilka värderingskriterier som eventuellt kan automatiseras i forskningsarbetet.
 
På det viset kan man förhoppningsvis undvika att fylla Internet med genealogiskt allmängods som i och för sig kan vara nog så tillförlitligt och användbart, men som ingen vet riktigt varifrån det kommer och ingen tar ansvar för. I längden riskerar sådant allmängods att få ungefär samma ställning som Aristoteles skrifter, med den skillnaden att vi här inte ens kan namnge en person som upphovsman, utan bara ett luddigt kollektiv. Om ingen äger materialet och från tid till annan bestämmer vad det skall innehålla, så är det ingen vits med att ifrågasätta dess trovärdighet i vetenskaplig mening; antingen kan vem som helst ändra i materialet när som helst eller så kan ingen göra det.
 
Genom att utse en ägare lämnar man också öppet för konkurrerande projekt med sina egna mål. Sådant gynnar forskningskvaliteten, och bör därför uppmuntras. Vi har dock inte lika stor nytta av inbördes konkurrerande system för att söka i så många databaser som möjligt; sådan konkurrens förstör liksom poängen med standardiseringen.

2003-12-17, 15:19
Svar #26

Anders Andersson

Jo, bättre möjligheter för den enskilde forskaren att gradera tillförlitligheten i sitt eget material är säkert bra. I DISGEN finns ju Oforskat som jag flitigt använder för detta ändamål; i princip en gradering med bara två nivåer. Dock betvivlar jag att tio nivåer ger särskilt mycket om man inte har strikta kriterier för vad som hamnar på vilken nivå. Om siffrorna skall betyda något för andra forskare så måste kriterierna dessutom vara gemensamma.
 
Bättre då att definiera entydiga kvalitetskriterier i den mån kvaliteten inte redan kan uttryckas på andra sätt. Om det framgår av källhänvisningen att en uppgift är kontrollerad mot primärkällan, så är väl inte en uttrycklig kvalitetsgradering med samma innebörd särskilt meningsfull?
 
Jag tror det ger mer att strukturera upp källhänvisningen, i stället för att bibehålla den som enbart ett klartextfält. Man skulle kunna införa olika koder för kyrkobokföring, tryckt publikation, privatperson osv.

2004-01-07, 21:31
Svar #27

Utloggad Hans Rosenlund

  • Anbytare ***
  • Antal inlägg: 388
  • Senast inloggad: 2022-05-26, 09:56
    • Visa profil
    • Hans hemsida
Webpublicering
 
Tar åter upp denna tråd sedan tidigare här på detta forum som gäller webpublicering med php- och MySQL-teknik.  
 
Jag har nu levererat den svenska översättningen till TNG (helt ideellt arbete!). Programmet finns på TheNextGeneration och ett smakprov kan ni också få på min hemsida. Programmet importerar GEDCOM-filer, men även direktredigering och kompletteringar kan göras online. Möjligheter att definiera egna taggar och raporter samt påverka layouten finns.
 
Jag är nöjd med programmet, men jag har lärt mig att ett bra webhotell är en förutsättning för att denna teknik ska fungera. Jag hade ett hotell i USA, och där verkade jag råka ut för ständig time-out så att mina data inte överfördes i sin helhet. Nu har jag anlitat en dansk leverantör, vilket har löst problemet.
 
Jag ska ta en till på phpGEDview också...
 
mvh
Hans R
Hans Rosenlund

2004-01-14, 13:00
Svar #28

Utloggad Niclas Runo

  • Anbytare **
  • Antal inlägg: 79
  • Senast inloggad: 2014-12-13, 11:49
    • Visa profil
Men  varför inte använda phpGedView istället som faktiskt är gratis? Tycker det verkar onödigt att betala 25$ när det finns likvärdiga gratis alternativ. Jag har själv testat phpGedView och är ganska nöjd. ni kan se hur det kan se ut här  http://runo.mine.nu:81/phpGedView/ länst ned på sidan finns länken till phpGedView

2004-01-14, 14:08
Svar #29

Utloggad Niklas Lindberg

  • Anbytare ***
  • Antal inlägg: 410
  • Senast inloggad: 2012-01-13, 11:55
    • Visa profil
    • anfyndet.blogspot.com
Hej Niclas!
 
Kan vara bra att tänka på att port 81, som du valt att köra din webserver på, är avsedd för annat (hosts2ns) och att många som sitter t.ex bakom brandväggar inte heller kommer åt dessa reserverade portar med http.  
Kan/vill man inte köra sin webserver på port 80 som är standard så bör man välja en port högre än 1023.
 
mvh Niklas

2004-01-14, 15:29
Svar #30

Utloggad Niclas Runo

  • Anbytare **
  • Antal inlägg: 79
  • Senast inloggad: 2014-12-13, 11:49
    • Visa profil
Den är inte till för allmänheten igentligen det är bara min linux testserver tänkte bara länka till den så man kunde se phpGedView in action. Det brukar funka för dom flesta. Är det så att det stöter på patrull för ngn så kan jag byat till port 8080

2004-03-03, 21:53
Svar #31

Utloggad Hans Rosenlund

  • Anbytare ***
  • Antal inlägg: 388
  • Senast inloggad: 2022-05-26, 09:56
    • Visa profil
    • Hans hemsida
Niclas, jag kan inte komma åt din web och se ditt exempel, men min främsta invändning mot PhpGedView är att det hanterar PUL alldeles för dåligt. Programmet tar visserligen bort detaljer för levande personer, men namnet kvarstår i sin helhet. Dessutom ligger bilder och bildtexter kvar på levande personer. Detta är inte godkänt! Om det är någon inställning jag missat tar jag gärna emot goda råd, för programmet är i övrigt snyggt och funktionellt.
TNG har jag hittat ett problem med: Om man inte kan få fasta ID-nummer i sin GEDCOM-export får man förr eller senare problem med de interna länkarna och bild- och källreferenser blir helt hopblandade. Jag har försökt påverka programmakaren, men utan resultat. Han påstår att de 'stora' amerikanska programmen har fasta ID. Själv använder jag MinSläkt, och utvecklaren där vill inte ge sig in på fasta ID.
Så jag sitter i fällan...  
Hans Rosenlund

2004-03-04, 08:18
Svar #32

Utloggad Niklas Lindberg

  • Anbytare ***
  • Antal inlägg: 410
  • Senast inloggad: 2012-01-13, 11:55
    • Visa profil
    • anfyndet.blogspot.com
Hej Hans!
 
Om nån vill se ett exempel på PhpGedView så kan du ju titta på min hemsida, välj databas 8.
 
http://www.genealogiq.net/niklin/
 
Innan jag lagt in materialet i PhpGedView har jag först kört min GEDCOM-fil igenom programmet Res Privata för att få bort årtal och datum i modernare tid (inställbart). Det går dock att ta bort ännu mer, t.ex hela namnet osv om detta är nödvändigt eller önskvärt.
 
Jag har ännu inte fullt utvärderat PhpGedView, men ser iallafall att det finns enorm potential i programmet och om fler börjar använda det kan man nog räkna med att utvecklingen går att påverka vad gäller specifika önskemål osv...
 
mvh Niklas Lindberg

2004-03-08, 18:07
Svar #33

Utloggad Hans Rosenlund

  • Anbytare ***
  • Antal inlägg: 388
  • Senast inloggad: 2022-05-26, 09:56
    • Visa profil
    • Hans hemsida
Hej Niklas,
 
Jo, jag har också använt ResPrivata, men nackdelen är ju att du inte kan se levande personer ens om du loggar in.
 
Nu har jag just uppdaterat phpGedView och ser till min förtjusning att de fixat detta! Nu kan man välja bort namnen helt för de levande, och en del andra nyheter vad jag kan se.
 
Min databas ligger på hans.alltidhult.se
 
mvh
Hans
Hans Rosenlund

Innehållet i inläggen på Anbytarforum omfattas inte av utgivningsbeviset för rotter.se


Annonser




Marknaden

elgenstierna utan-bakgrund 270pxKöp och Sälj

Här kan du köpa eller sälja vidare böcker och andra produkter som är släktforskaren till hjälp.

Se de senast inlagda annonserna