Sie sind hier: Arbeitsgruppen / Landwirtschaftliches Versuchswesen / Tagungsberichte (ab 1996) / Sommertagung in Pillnitz bei Dresden Juli 1996 / Tagungsbericht
de
en

Suchen  

 

INFO
  • Das aktuelle e-Rundschreiben 215 vom 11. Oktober 2024 ist online verfügbar
  • Das nächste planmäßige e-Rundschreiben erscheint im November 2024

Tagungsbericht

 

Weihenstephan 1997

  

AG-Sitzung in Freising / Weihenstephan

Landwirtschaftliches Versuchswesen

Gemeinsame Sitzung der Arbeitsgruppen

Landwirtschaftliches Versuchswesen und Biometrie in der Phytomedizin

der Deutschen Region der Internationalen Biometrischen Gesellschaft,

des Arbeitskreises Biometrie und Versuchsmethodik der Deutschen Phytomedizinischen Gesellschaft

und der Arbeitsgemeinschaften Versuchswesen der Gesellschaften für Pflanzenzüchtung und Pflanzenbau

am 17. und 18. März 1997

 


Tagungsort :

Technische Universität Weihenstephan

 


Programm

Montag, 17.03.1997 :

  • Vormittag : 
    9:00-12:00 Uhr : Auernhammer, Graf : Vortrag und Vorführungen zu GPS (Global Positioning System) 
    Adresse : Vöttinger Straße 36, Bayrische Landesanstalt für Landtechnik, Freising/Weihenstephan.

 


Vortragsprogramm für :
Montag, den 17. März 1997 :

1300 - 1310 Uhr : Eröffnung der Tagung
  • 1310 - 1340 Uhr : Martin Bachmaier, Manfred Precht (Weihenstephan) : 
    Robuste Varianzanalyse und Bartlett-Tests
  • 1340 - 1410 Uhr : Elisabeth Schmidt, Budi Suharjo (Giessen) : 
    Ansätze zur varianzanalytischen Auswertung von Dauerfeldversuchen
  • 1410 - 1440 Uhr : Peter Lezovic (Halle) : 
    Vorschlag zur Analyse der Langzeitwirkung von Prüfgliedern in einem Dauerfeldversuch
  • 1440 - 1500 Uhr : Thomas Westermann (Halle) : 
    Analyse von Wechselwirkungen in landwirtschaftlichen Versuchsserien für eine Ertragsprognose
  • 1500 - 1530 Uhr : P A U S E
  • 1530 - 1550 Uhr : Hanspeter Thöni (Hohenheim): 
    Auswertung von Boniturdaten : Überblick und Einführung
  • 1550 - 1610 Uhr : Erich Schumacher (Hohenheim) : 
    Permutationstests zur Analyse von Einzelbonituren 
    Vergleich europäischer Boniturmethoden
  • 1610 - 1650 Uhr : Hans Peter Piepho (Witzenhausen) : 
    Möglichkeiten der Auswertung von Bonituren des Typs "Prozent Befall"
  • 1650 - 1710 Uhr : Hermann Bleiholder, Reinhold Saur, Christophe Sanchez (Limburgerhof) : 
    Vergleichende Analyse von unterschiedlichen Bewertungsmethoden für verschiedene Getreidekrankheiten
  • 1710 - 1745Uhr : Diskussion zu den Vorträgen über Boniturauswertungen

Dienstag, 18.03.97 :

  • 0815 - 0845 Uhr : Rudolf Graf (Freising), Karsten Block (LVA-Haus Düsse) : 
    Stand der Anwendung und Integration von PIAF im Bayrischen Versuchswesen
  • 0845 - 0915 Uhr : Christel Richter, Bärbel Kroschewski (Berlin) : 
    Auswertung von Blindversuchen
  • 0915 - 0945 Uhr : Kristina Warnstorff , Hannelore Dörfel (Halle) : 
    Untersuchung von Zusammenhängen in mehrdimensionalen Kontingenztafeln
  • 0945 - 1015 Uhr : P A U S E
  • 1015 - 1045 Uhr : Falk Krüger (Güterfelde) : 
    Varianzanalyse und Grenzdifferenzen von Serien gleichartiger Block- Spalt- und 
    Streifenanlagen
  • 1045 - 1115 Uhr : Joachim Spilke (Halle), Eildert Gröneveld (Mariensee) : 
    Schätzung von Varianzkomponenten in gemischten linearen Modellen bei unbalanzierten 
    Daten
  • 1115 - 1145 Uhr : Budi Susetyo (Giessen) : 
    Zu einigen Fragen der Auswertung gemischter Modelle im balanzierten Fall

 

 

 


 

ABSTRACTS zu den Vorträgen

 

Robuste Varianzanalyse mit heterogenen Skalenparametern und Bartlett-Tests

Martin Bachmaier, Manfred Precht,

FU München -Weihenstephan - Datenverarbeitungsstelle

85354 Freising

 

Die robuste Varianzanalyse, die anstatt der klassischen Parameter-Schätzungen M-Schätzer verwendet, bewährt sich zwar im Blick auf Ausreißer, nicht aber, wenn die Skalenparameter der einzelnen Zellen heterogen sind. Hier kann sie viel zu liberal werden. Deshalb und auch wegen des großen Machtgewinns gegenüber der klassischen Varianzanalyse werden die heterogenen Skalenparameter in Form robustifizierter varianzanalytischer Testgrößen von James (1951) bzw. Welch (1938), wenn nur zwei Mittelwerte zu vergleichen sind, berücksichtigt. Mittels Welch (1938) und robuster M-Schätzer können auch robuste individuelle und multiple Vertrauensintervalle nach Tukey für die Mittelwertsdifferenzen gebildet werden. Letztere sind asymptotisch konservativ, was sich analog zur Tukey-Kramer-Methode für ungleiche Zellenbesetzungszahlen zeigen läßt (Hayter 1984). Solche Vertrauensintervalle sind vor allem für die Praxis insofern interessant, als ihre Länge von der Streuung der Daten innerhalb der entsprechenden Zellen abhängig ist.

Natürlich will der Benutzer eines solchen Varianzanalyse-Programms, das im Vortrag vorgestellt wird, wissen, ob die Skalenparameter auch heterogen sind. Da der gewöhnliche Bartlett-Test (Bartlett 1937) auf Varianzhomogenität von der Kurtosis der Normalverteilung ausgeht, kann er viel zu liberal werden. Deswegen werden Versionen des Bartlett-Tests vorgestellt, die zum einen die Wölbung schätzen und zum anderen anstatt der Standardabweichungen robuste Skalen-M-Schätzer (Bachmaier & Precht 1995) oder auch die mittlere absolute Abweichung vom Mittelwert verwenden.

Literatur :

  • Bachmaier, M., Precht, M. (1995): Bartlett Tests with M-estimates and Bartlett Tests Using Ranks. 
    50th ISI Session Beijing, Contributed Papers 1, 53-54
  • Bartlett, M.S. (1937): Properties of Sufficiency and Statistical Tests. Proceedings of the Royal Society A 160, 268-282
  • Hayter, A.J. (1984): A Proof of the Conjecture that the Tukey-Kramer Multiple Comparisons Procedure Is Conservative. 
    The Annals of Statistics 12, No. 1, 61-75
  • James, G.S. (1951): The comparison of several groups of observations when the ratios of the population variances are unknown. Biometrika 38, 324-329
  • Welch, B.L. (1938): The Significance of the Difference Between Two Means When the Population Variances Are Unequal. Biometrika 29, 350-362

 


Ansätze zur varianzanalytischen Auswertung von Dauerversuchen

Elisabeth Schmidt, Budi Suharjo,

Justus-Liebig-Universität - Biometrie und Populationsgenetik, 35390 Gießen

Gegenüber Einzelversuchen bieten Dauerversuche bei pflanzenbaulichen Fragestellungen die Möglichkeit, langfristige Wirkungen von Behandlungen zu überprüfen.

Hierbei können über größere Zeiträume (1) die Behandlungseffekte unter verschiedenen Witterungsbedingungen, (2) Rest- oder Kumulationseffekte, d.h. die Wirkungen auf nachfolgende Jahre z.B. bzgl. Bodenfruchtbarkeit und (3) gegebenenfalls Fruchtfolgeeffekte ermittelt werden.

Dauerversuche lassen sich in Versuche mit oder ohne Dauerkulturen einteilen. Bei Versuchen ohne Dauerkulturen kann weiter in solchemit oder ohne Fruchtwechsel unterschieden werden. Bei Vorliegen von Fruchtwechsel kann einerseits alleine das Verhalten der einzelnen Fruchtarten oder andererseits der Vergleich ganzer Fruchtfolgesysteme im Mittelpunkt stehen. Eine davon unabhängige Klassifikation kann nach fester oder rotierender Behandlung vorgenommen werden.

Die Schwierigkeit liegt nun darin, im varianzanalytischen Modell die Wirkung der interessierenden Effekte voneinander zu trennen. Dazu erfolgt eine weitere Aufspaltung der Variationsursachen in die Faktoren Serie und Periode. Unter Serie wird dabei eine separate Parzelle verstanden, auf der alle Fruchtfolge- und/oder Behandlungsphasen durchgeführt wurden. Eine Periode dagegen beinhaltet genau einen Zyklus, d.h. eine vollständige Abfolge aller Behandlungen bzw. Fruchtfolgeglieder.

In Abhängigkeit von der primär interessierenden Fragestellung des Versuches sind verschiedene ANOVA-Modelle denkbar. Entsprechend dem gewählten Modell ist dann die Versuchsanlage anzupassen. Die drei folgenden Modelle (Suharjo, 1995) sollen vorgestellt werden am Beispiel eines über 16 Jahre durchgeführten Dauerversuches mit den Faktoren Grundwasser, Düngung und Pflanzenart:

Versuchsserien-Modell: Ist nur der direkte Einfluß der Düngung von Interesse und eine Fruchtfolgewirkung unwichtig, sollte jährlich die Düngungsstufe und die Feldfrüchte den Parzellen zufällig zugeordnet werden. In der Auswertung werden die Perioden- und Serieneffekte zum Jahreseffekt zusammengefaßt.

Fruchtfolge-Modell: Sind dagegen die Düngungs- und Fruchtfolgeeffekte von zentraler Bedeutung, so sind die Fruchtfolgen nur zu Versuchsbeginn und die Düngungsstufen jährlich zu randomisieren. Die Auswertung erfolgt, indem der Periodeneffekt als Wiederholung über die Zeit angesehen wird und innerhalb der Serie verschachtelt ist.

Meßwiederholungs-Modell: Hier wird nach der kumulierenden Wirkung der Düngung bei fester Fruchtfolge gefragt. Die Periode wird als "Meßwiederholung" angesehen und als fester Effekt eines vollständigen Behandlungs- oder Fruchtfolgezyklus aufgefaßt.

Literatur :

  • Suharjo, B., 1995: Biometrische Probleme der Auswertung von Dauerversuchen, Diss. Uni. Gießen.

 


Vorschlag zur Analyse der Langzeitwirkung von Prüfgliedern in einem Dauerfeldversuch

Peter Lezovic,

Martin-Luther-Universität - Abteilung Biometrie,

06108 Halle

Die Dauer(feld)versuche stellen für die Agrarforschung ein großes Erkenntnispotenzial dar. Sie sind angelegt, um die Langzeitwirkungen der Prüfglieder zu untersuchen. Methodisch kann die Langzeitwirkung als Ergebnis eines Prüfgliedes nach einer bestimmte Zeit betrachtet werden. Die Untersuchungsmethoden können in zwei Gruppen unterteilt werden. Die erste Gruppe betrachtet die Langzeitwirkung als "Ist-Zustand", d.h. als Ergebnis nach einer bestimmten Anzahl von Jahren (SURHAJO, 1995). Die zweite Gruppe analysiert die Langzeitwirkung als Prozeß. In die zweite Gruppe gehört die hier vorgestellte Analyse der Dauerversuche mit Hilfe des Komponentenmodelles (SCHLITTGEN und STREITBERG, 1989). Das Komponentenmodel für die Ergebnisse eines Dauerfeldversuches nach LEZOVIC (1997) ist wie folgt beschrieben:

Ertrag = glatte Komponente + Witterungskomponente + Restkomponente

Für die Ermittlung der glatten Komponente wird die lokal angepaßte funktionale Approxi-mation (LOAP) nach SCHMERLING und PEIL (1985) benutzt. Dieses Verfahren beschreibt das mittlere Niveau einer Ertragsentwicklung über die Jahre. Mit der Witterungskomponente sollen die Abweichungen der Jahreserträge von der mittleren Niveau (Diff = yorg - LOAP) erklärt werden. Als Witterungsfaktoren werden Monatsmittelwerte von Temperatur und Monatssumen von Niederschlag und Sonnenscheidauer betrachtet. Zunächst werden Korrelationen zwischen Diff und Witterungsfaktoren über alle Jahre geschätzt. Witterungs-faktoren mit einem signifikanten Korrelationskoeffizient gehen in die Schätzung (Modell 1) einer multiplen Regression für Diff ein. Das gesamte Komponentenmodell wird für den Ertrag mit einer multiplen Regression Modell 2 geschätzt. Der Einflußgrößenkomplex von Modell 1 wird um Variable LOA P erweitert. Es erfolgt eine schrittweise Variablenreduktion unter der Bedingung, daß berechnete t-Prüfzahl großer 1 ist.

Die Untersuchungen werden am Dauerversuch "Ewiger Roggenbau" Halle dargestellt.

Literatur :

  • Lezovic, P. (1997): Beitrag zur Methodik der Dauerversuche; Diss. (wird eingereicht); Martin-Luther-Univ. Halle; Halle.
  • Schlittgen, R. und Streitberg, B. (1989): Zeitreihenanalyse, 3. Auflage, Oldenbuorg Verlag München-Wien
  • Schmerling, S. und Peil, J. (1985): Verfahren der lokalen Approximation zur nichtparametrischen Schätzung unbekannter stetiger Funktion aus Meßdaten.; Gegenbaurs morph. Jahrb., Leipzig 131 (1985) 3, S. 367-381
  • Suharjo, B. (1995): Biometrische Probleme der Auswertung von Dauerversuchen; Diss.; J.-Liebig-Uni. Gießen; Gießen

 


Analyse von Wechselwirkungen in landwirtschaftlichen Versuchsserien für eine Ertragsprognose

Thomas Westermann,

Institut für Pflanzenzüchtung und Pflanzenschutz, Bereich Pflanzenzüchtung,

Martin-Luther-Universität Halle, 06188 Hohenthurm

Aus Kosten- oder Geschwindigkeitsgrüden ist es häufig nötig, Entscheidungen zu treffen, die auf Feldversuchsdaten aus einem oder nur wenigen Jahren basieren. Die Gefahr einer Fehlentscheidung ist hierbei nicht zu unterschätzen, da die Beobachtungswerte klimatischen Einflüssen unterliegen und sowohl der Faktor Umweltbedingung als auch die Wechsel-wirkungen anderer Faktoren mit dem Faktor Umweltbedingung bei der Auswertung solcher Versuche nicht bzw. unzureichend kontrollierbar sind. Verschiedene biometrische Verfahren wurden deshalb unter der Fragestellung analysiert, ob sie Schätzwerte liefern, die zu besser reproduzierbaren Ergebnissen führen als die Beobachtungsdaten selbst. Konkret wurden einjährige Versuchsdaten an mehreren Orten zur Vorhersage der Leistung in anderen Jahren benutzt. Die experimentellen Daten wurden von der Arbeitsgruppe 'Datenspeicher Feldversuche' der Martin-Luther-Universität Halle und vom Bundessortenamt zur Verfügung gestellt. Es handelte sich um Ertragswerte der landwirtschaftlichen Kulturarten Winterweizen, Sommerweizen, Wintergerste, Sommergerste, Winterroggen, Hafer und Kartoffeln. Die Ertragswerte von der Arbeitsgruppe 'Datenspeicher Feldversuche' wurden zusätzlich mit Standortparametern (Ackerzahl, jährl. Niederschlagssumme, jährl. durchschnittl. Lufttemperatur, Höhenlage über NN), die der Standortbeschreibung der ehemaligen

Zentralstelle für Sortenwesen entnommen worden waren, über die Prüforte verknüpft. Neben dem Ertrag am Ort selbst (=Beobachtungswerte), der als Kontolle diente, wurden auf der Basis des ungewogenen Mittels über alle Orte, der linearen Regression (Finlay-Wilkinson-Regression, FWR) der spezifischen auf die durschnittliche Sortenleistung (Yates und Cochran 1938, Finlay und Wilkinson 1963), der linearen Regression (Factorial Regression, FR) der spezifischen Sortenleistung auf einen Standortparameter (Piepho et al), eines Hauptkom-ponentenansatzes (Additive Main Effects and Multiplicative Interaction, AMMI) (Mandel 1969, Gauch 1988) und von Quotienten, die auf Verhältnissen von Varianzkom-ponenten unabhängiger Versuche basieren (BLUP), Schätzwerte berechnet. Die Überprüfung der Güte der Vorhersage unter Verwendung dieser Schätzwerte erfolgte an unabhängigen Ergebnissen eines anderen Jahres (=Validierungswerte). Als Maß für die Güte der Vorhersage wurde für jeden Ort Pearson's Korrelationskoeffizient zwischen den Schätz- und den Validierungswerten berechnet. Die Vorhersage war bei Verwendung der BLUP-Schätzer für die Kulturarten Kartoffel, Winterroggen, Sommergerste und Wintergerste am besten, während für Winterweizen, Sommerweizen und Hafer die Prognose bei Verwendung der Beobachtungswerte am besten war.

Literatur:

  • Finlay, K. W., und G. N. Wilkinson, 1963: The analysis of adaption in a plant-breeding programme. Aust. J. Agr. Res. 14, 742-754.
  • Gauch, H. G., 1988: Model selection and validation for yield trials with interaction. Biomet. 44, 705-715.
  • Mandel, J., 1969: The partioning of interaction in analysis of variance. J. Res. Nat. Bur. St. 73B, 309-328.
  • Piepho, H.-P., J.-B. Denis, und F. A. van Eeuwijk: Predicting cultivar differences using covariates. Submitted.
  • Yates, F., und W. G. Cochran, 1938: The analysis of groups of experiments. J. Agric. Sci. 28, 556-580.

 


AUSWERTUNG von BONITUR-DATEN : Überblick und Einführung

Hanspeter Thöni, Institut für Angewandte Mathematik und Statistik,

Universität Hohenheim, 70593 Stuttgart.

Versuchsergebnisse, die als Resultat einer visuellen Einschätzung des zu messenden Merkmals (Krankheitsbefall, Verunkrautung, "Lager" bei Getreide, etc.) erhoben werden, erfüllen i.d.R. nicht von vorneherein die üblichen Verteilungsannahmen, die für die Auswertung stetiger, normalverteilter Daten gemacht werden.

Ihrer Natur nach können solche Daten nach zwei Gesichtspunkten klassiert werden:

(i) nach der Skalen-Art.

"klassische Bonitur-Noten" : die Merkmalsausprägung wird in k disjunkte Klassen 
eingeteilt; jeder Klasse wird eine natürlich (Wert-)zahl k = 1,...,K zugeordnet.

"(Befalls-)Prozente" : der (Befalls-)Grad der Versuchseinheit wird visuell auf einer 
stetigen Skala zwischen 0 und 100 angegeben. Die Erfahrung zeigt, dass derartige Versuchsergebnisse nicht die erwünschte Eigenschaft der Stetigkeit aufweisen, sondern in hohem Masse diskret, d.h. auf wenige bevorzugt auftretende Werte (Vielfache von 10, seltener Vielfache von 5, ganzzahlige Stufen zwischen 0 und 5 bzw. 95 und 100) beschränkt bleiben.

(ii) nach der Stichprobengrösse.

Auf jeder Versuchs-(Randomisations-)Einheit wird eine hinreichend grosse 
Zufallsstichprobe von Einzelpflanzen "bonitiert".

Von jeder Versuchseinheit liegt nur ein Beobachtungswert vor.

Für die Auswertung lassen sich die folgenden Empfehlungen formulieren :

1A/1B Bei genügend grossen Stichproben (n>25 als Faustregel) erfüllen die (Parzellen-)Mittelwerte i.d.R. die üblichen Voraussetzungen der auf Normalverteilungsannahmen beruhenden Varianzanalyse, ggf. nach einer passenden varianzstabilisierenden Transformation.

1A Für "Boniturnoten" steht auch das sog.Schwellenwert-Modell zur Verfügung.

2B Die Auswertung kann mit Hilfe von Permutationstests erfolgen, sofern die Randomisationsstruktur solche zulässt.

2A Versuche in vollständig randomisierter Anordnung können über Mehrfeldertafeln ausgewertet werden. Für Versuche mit eingeschränkter Radomisation sind keine befriedigenden Ansätze bekannt.

Literatur :

  • McCullagh,P. (1980): Regression Models for Ordinal Data. 
    Journal of the Royal Statistical Society (London) B42, 109-142.
  • Quebe-Fehling,E. (1990): Mehrfaktorielle Varianzanalyse mit ordinal-kategorialen 
    Zielgrössen. Dissertation Universität Bochum.
  • Schumacher,E., und Thöni,H. (1990a) : Auswertung von Boniturwerten. 
    Agrarinformatik, Band 18, 51-62. Verlag Eugen Ulmer, Stuttgart.
  • Schumacher,E., Bleiholder,H.,und Thöni,H. (1995): Methodische Untersuchungen zur 
    biometrischen Analyse von Boniturwerten aus Freilandversuchen mit Herbiziden. 
    9th European Weed Research Society Symposium Budapest, 283-289.
  • Thöni,H. (1985) : Auswertung von Bonituren : ein empirischer Methodenvergleich. 
    EDV in Medizin und Biologie 16, 108-114.
  • Thöni,H. (1992) : Auswertung von Bonituren : ein empirischer Methodenvergleich. 
    II.Signifikanzprüfung von Prüfglied-Effekten. 
    Biometrie und Informatik in Medizin und Biologie 23, 144-156.
  • Urfer,W., und Quebe-Fehling,E. (1984) : Statistische Methoden zur Analyse von 
    Boniturdaten bei Sortenversuchen. EDV in Medizin und Biologie 15, 91-96.

 


Permutationstests zur Analyse von Einzelbonituren

- Vergleich europäischer Boniturmethoden -

Erich Schumacher,

Institut für Angewandte Mathematik und Statistik

Universität Hohenheim, 70593 Stuttgart

Zur Analyse von Einzelboniturwerten (Anteilziffern) in einfachen Versuchsanlagen können sog. Permutationstests, siehe Edgington (1995), verwendet werden. Sowohl Globaltests als auch multiple Vergleiche zur Analyse von Prüfgliedunterschieden lassen sich mit Hilfe von Permutationstests durchführen, vergleiche Schumacher, Bleiholder und Thöni (1995). Es wurden SAS-Macros entwickelt, welche für ein- und zweifaktorielle Completely Randomised Designs und für einfaktorielle Randomised Complete Block Designs die oben genannten Tests exakt bzw. approximativ zu berechnen gestatten, siehe Schumacher und Frisch (1995).

Führt man eine Logit-Transformation der Anteilziffern durch, dann kann den Daten über das übliche einfache Randomisationsmodell hinaus ein additives Modell unterstellt werden. In diesem Falle läßt sich die Analyse mittels Permutationstests auch auf Randomised Incomplete Block Designs übertragen. Diese Verallgemeinerung folgt Überlegungen von Durbin (1951) sowie Skillings und Mack (1981), welche diese für Rangtests vom Friedman-Typ entwickelt haben.

Ein Vorteil der Verwendung von Permutationstests ist, daß exakte Tests zum globalen und multiplen Vergleich von Prüfgliedern durchgeführt werden können.

Die Analyse von Anteilziffern mittels Permutationstests hat jedoch zum einen den Nachteil, dass Versuchsdesigns mit Wechselwirkungen und mehreren Versuchsfehlern (z. B. Split Plot Designs) nicht mehr auswertbar sind, zum anderen Designs mit geringen Prüfglied- und Blockzahlen ebenfalls nicht mehr auswertbar sind bzw. die Analyse keine befriedigende Güte (Power) aufweist.

Anhand von umfangreichen Datenmaterial über Weizenmehltauversuche, das von Herrn Dr. Ernst Schilli (AgrEvo) zur Verfügung gestellt worden ist, werden vier gängige europäische Boniturmethoden miteinander verglichen. Insbesondere wird untersucht, ob Globaltests und multiple Vergleiche bei den verschiedenen Methoden der Bonitierung zu denselben bzw. zu unterschiedlichen Entscheidungen führen. 
 

Literatur :

  • Durbin, J. (1951). Incomplete Block Designs in Ranking Experiments. British Journal of Mathematical and Statistical Psychology 4, 85-90.
  • Edgington, S. (1995). Randomization Tests. Marcel Dekker, 3nd Edition.
  • Schumacher, E., Bleiholder, H., Thöni, H. (1995). Methodische Untersuchungen zur biometrischen Analyse von Boniturwerten aus Freilandversuchen mit Herbiziden. 9th EWRS Symposium, Budapest 1995, Proc. Vol. 1, 283-290.
  • Schumacher, E., Frisch, M. (1995). Permutationstests zur Analyse von Boniturwerten in einfachen Versuchsanlagen. Zeitschrift für Agrarinformatik, Heft 5, 107-113.
  • Skillings, J.H., Mack, G.A. (1981). On the Use of a Friedman Type Statistic in Balanced and Incomplete Block Designs. Technometrics 23, No. 2, 171-177.
  • Herrmann, G., Schilli, E., Hoechst Schering AgrEvo, Berlin. 
    Vergleich europäischer Boniturmethoden in einem Versuch mit Weizenmehltau, 
    Vortrag anläßlich der gemeinsamen AG-Sitzungen in Magdeburg, 12.03.1996.

 


Möglichkeiten der Auswertung von Bonituren des Typs "Prozent Befall"

Hans-Peter Piepho,

Institut für Nutzpflanzenkunde (INK),

Universität Gesamthochschule Kassel,

37213Witzenhausen

In vielen Versuchen werden Bonituren in Form von Prozentzahlen erhoben. Dabei kann zunächst in "diskrete" (z.B. Anteil befallener Einzelpflanzen) und "kontinuierliche" (Anteil befallene Blattfläche) Prozentzahlen unterschieden werden. Gegen eine varianzanalytische Verrechnung von Prozentzahlen spricht die Tatsache, daß wichtige Annahmen, wie Additivität (Linearität), Varianzhomogenität und Normalverteilung nicht erfüllt sind. Die wichtigste dieser Annahmen ist die Additivität, gefolgt von der Varianzhomogenität. Oft werden Prozentzahlen transformiert (z.B. mit der Arcus-Sinus-Wurzel-Transformation) und die transformierten Daten dann einer Varianzanalyse unterzogen. Ziel der Transformation ist es, die Voraussetzungen der Varianzanalyse möglichst gut zu erfüllen. Allerdings kann eine bestimmte Transformation meistens nur eine der drei genannten Voraussetzungen erfüllen.

Aus diesem Grunde ist die Verrechnung der Daten nach einem Generalisierten Linearen Modell (GLM) vorzuziehen. Hierbei kann man sich bei der Transformation (Link-Funktion) auf die wichtigste Annahme konzentrieren: die Additivität. Die Verteilung und die Varianz sind völlig unabhängig von der Additivität zu betrachten. In einem GLM können verschiedene Verteilungen vorausgesetzt werden, so z.B. die Binomialverteilung für diskrete Prozentzahlen. Die Varianz wird als Funktion des Erwartungswertes modelliert (Varianzfunktion) und sie muß nicht homogen sein. Im Gegenteil: Die Möglichkeit von Varianzheterogenität ist integraler Bestandteil eines GLM.

Für Nutzer, die die Varianzanalyse gewohnt sind, haben GLMs den Vorteil, daß im wesentlichen der gleiche Typ von Output zu interpretieren ist. Die Varianzanalyse-Tabelle wird durch eine sog. Devianz-Tabelle ersetzt, und Behandlungseffekte sind weiterhin auf der Ebene eines linearen Modells zu betrachten. Lediglich die Mittelwertvergleiche können nicht nach dem üblichen Muster für balanzierte Daten (Kenntlichmachen von Behandlungsunterschieden mit Buchstaben) erfolgen, weil die Standardfehler von Behandlungsdifferenzen nicht konstant sind. Daher sind Mittelwertvergleiche ähnlich wie bei unbalanzierten normalverteilten Daten paarweise durchzuführen (Stichwort: LSMEANS Anweisung in SAS).

Die Verteilungsannahme bei einem GLM kann auch ganz fallen gelassen werden, sofern die Beziehung zwischen Erwartungswert und Varianz spezifiziert wird. Diese Angaben reichen aus, um eine sog. Quasi-Likelihood (QL)-Funktion (Wedderburn) zu definieren. Diese verhält sich im wesentlichen wie eine echte Likelihood und kann zur Schätzung von Parametern und deren Standardfehlern sowie zum Testen von Hypothesen verwendet werden. Die Schätzung der Parameter erfolgt genau so wie bei der Maximum-Likelihood (ML) Methode. Mit dem QL-Ansatz können auch kontinuierliche Prozentzahlen analysiert werden, ohne daß restriktive Verteilungsannahmen gemacht werden müssen.

Der QL-Ansatz erlaubt es, den Versuchsfehler in Feldversuchen adäquat zu berücksichtigen, weil die Varianzfunktion um einen sog. Überdispersionsparameter erweitert werden kann. Bei Versuchsanlagen mit mehr als einem Fehlerterm (Spaltanlagen, Meßwiederholungen) kann das GLM um zufällige Effekte erweitert werden. Dies führt zu sog. Generalized Linear Mixed Models oder Hierarchical Generalized Linear Models, worauf in diesem Vortrag aber nicht näher eingegangen wird.

 


Vergleichende Analyse von unterschiedlichen Bewertungsmethoden für verschiedene Getreidekrankheiten.

Hermann Bleiholder, Reinhold Saur u. Christophe Sanchez, Landw.V.Station der BASF Aktiengesellschaft, 67117 Limburgerhof

Zusammenfassung

Im Rahmen einer Diplomarbeit der Université de Nancy, Frankreich wurde eine Studie zum Vergleich europäischer Bonitierungsmethoden zur Bewertung des Krankheitsbefalles durch Pilze an Getreide durchgeführt. Zwei Ziele wurden verfolgt:

1. Unterscheiden sich die Boniturmethoden hinsichtlich der Beurteilung der Wirksamkeit unterschiedlicher Präparate?

2. Wie hoch ist der zeitliche Aufwand der einzelnen Methoden?

Vier europäische Bonitierungsmethoden wurden an fünf Getreidekrankheiten untersucht. Die für diese Studie angelegten Versuche wurden mehrmals im Abstand von 10 Tagen nach der Behandlung bonitiert. Alle Versuche wurden beerntet.

Folgende Schlußfolgerungen lassen sich aus der Studie entnehmen :

1. die verschiedenen Bonitierungsmethoden führten zu vergleichbaren Befallsbeurteilungen

2. die Rangfolge der Behandlungen änderte sich durch die Bonitierungsmethode im allgemeinen 
nicht.

3. die Auswahl des Stichprobenverfahrens hat keinen Einfluß auf die Befallsschätzung.

4. die Ganzpflanzenmethode (BBA­Methode = 1 Wert pro Parzelle) benötigt den geringsten Zeitaufwand von allen geprüften Bonitierungsmethoden.

Literatur :

  • BBA (1988): Richtlinie 4­2.1.1, Fungizide gegen verschiedene Krankheiten an Getreide.
  • CEB (1981­1992): Methode d'essai d'efficacité practique des produits destines à lutter contre different maladies de cereales.
  • Christophe Sanchez (1996): Comparaison de quatre méthodes de notation. Diplomarbeit Université de Nancy.
  • EPPO (1997): Guideline for the efficacy evaluation of fungicides; foliar diseases on cereals. EPPO Bulletin (in press).

 


Stand der Anwendung und Integration von PIAF im Bayerischen Versuchswesen

Rudolf Graf1, Karsten Block2,

1Bayer. Landesanstalt für Bodenkultur, 85354 Freising

2LVA-Haus Düsse, 59505 Bad Sassendorf

Im Rahmen eines Bund-Länder Projekts wird seit 1994 ein Planungs- und Informationssystem für die Auswertung von Feldversuchen (PIAF) erarbeitet. Hauptaufgaben dabei sind die Festlegung eines Datenmodells, die Implementation mit kompatiblen Schnittstellen und die Erstellung von Auswertungsroutinen.

Auch wenn dabei eine ganzheitliche Lösung für alle Feldversuche angestrebt wird, sind komplexe produktionstechnische Versuche, wie sie an der LBP durchgeführt werden, nicht abgedeckt.

Für die Datenerfassung sind 2 Module vorgesehen, nämlich für die Versuchsplanung und die Felddatenerfassung.

Für die Versuchsplanung hat die LBP eine eigenes umfangreiches System entwickelt, das auch für andere Bundesländer geeignet sein könnte.

Es handelt sich dabei um ein menuegesteuertes Eingabesystem zur Beschreibung und Planung sämtlicher Feldversuche.

Über Eingabemarken werden sämtliche Definitionen und Beschreibungen erfaßt:

  • Eingabe der Grunddaten
  • Versuchsbeschreibung
  • Eingabe der Versuchsstandorte
  • Auswahlliste Standorte
  • Versuchsanlage
  • Beschreibung der Faktoren
  • Beschreibung der Faktor-Variablen
  • Definition der Faktor - Stufen
  • Eingabe der ortspezifischen Faktor - Stufen - Wdh. - Kombinationen
  • Auswahlliste Standorte des aktuellen Versuches
  • Eingabe der Feststellungen
  • Zusatzeingabe für ausgewählte Merkmale
  • Auswahlliste Merkmale

Anhand mehrer Versuche der LBP wird das gesamte System von der Felddatenerfassung bis hin zur Auswertung vorgestellt und diskutiert.

 


Auswertung von Blindversuchen

Christel Richter und Bärbel Kroschewski

Landwirtschaftlich-Gärtnerische Fakultät

Institut für Grundlagen der Pflanzenbauwissenschaften

Fachgebiet Biometrie/Versuchswesen

10115 Berlin


 

 

Blindversuche werden angelegt, um die Versuchselemente - Block und Teilstück - in ihrer Richtung, Form und Grösse geeignet festzulegen. Dazu ist es notwendig, Richtungen schwacher und starker Bodenheterogenität und in sich relativ homogene Areale zu bestimmen. Für die Auswertung und Interpretation von Blindversuchen sind in der Vergangenheit verschiedene Ansätze gewählt worden. Anhand von 7 Blindversuchen werden einige bekannte Methoden :

- empirische bzw. modifizierte empirische Methode nach BÄTZ

- Auswertung nach dem Varianzgesetz von SMITH

- Auswertung nach RABE

und Herangehensweisen, die auf geostatistischen Ansätzen beruhen und mit geeigneten Visualisierungsmethoden kombiniert werden, gegenübergestellt.

Letztere Herangehensweisen sind zum Teil allgemein für die Bewertung beprobter Flächen nutzbar.

Literatur :

  • Bätz, G. (1968): Untersuchungen zur Erhöhung der Aussagekraft von Feldversuchen. 
    Habilitationsschrift, Jena.
  • Ersbøll, A. K. (1996). Spatial Experimental Design. In: Design of Experiments and Statistical Education in Agriculture. Proceedings of the Third HARMA Meeting 1994, Cordoba.
  • Fritzsch, J. (1993). Untersuchungen zur Anwendbarkeit des Verfahrens der lokal angepassten funktionalen Approximation auf die Auswertung von Blindversuchen. Diss. Martin-Luther-Universität.
  • Rabe, C. (1980). Die Bestimmung optimaler Versuchselemente bei der Planung landwirtschaftlicher Feldversuche speziell im Gemüsebau. Diss., Humboldt-Universität zu Berlin.
  • Richter, C.; Kuzyakova, I.; Kroschewski, B. (1997). Trendidentifikation und Heterogenität in beprobten Flächen. Zeitschrift für Agrarinformatik (im Druck).

 


Untersuchung von Zusammenhängen in mehrdimensionalen Kontingenztafeln

Kristina Warnstorff, Hannelore Dörfel,

Martin-Luther-Universität - Abteilung Biometrie,

06108 Halle

Mit Hilfe der Kontingenztafelanalyse kann die Zusammenhangsstruktur von qualitativen Merkmalen (z.B. Befall von Getreidepflanzen mit Mehltau, Gelbrost, Braunrost, Cercosporella, Helminthosporium,u.a. , erfaßt durch Bonitieren) untersucht werden. Zwei und mehrdimensionale Häufigkeitstafeln sind die Grundlage für die Analyse von Zusammenhängen. Für die Besetzungszahlen der Kontingenztafeln kann ein vollständiges log-lineares Modell aufgestellt werden. Geprüft wird die Gültigkeit statistischer Unabhängigkeitshypothesen. Für eine zweidimensionale Kontingenztafel bedeutet die Annahme der Hypothese H0(AxB)

Unabhängigkeit zwischen zwei Merkmalen A und B. Das Modell für den Erwartungswert unter Gültigkeit dieser Hypothese enthält keinen Wechselwirkungseffekt. Mit der approximativ 2 verteilten Prüfzahl 2I wird die Existenz einer zweifachen Wechselwirkung (2. Ordnung ) geprüft.

Für dreidimesionale Kontingenztafeln können 10, für vierdimensionale 70 Unabhängigkeits-hypothesen geprüft werden, die aber untereinander nicht unabhängig sind. In Hierarchie-Ebenen wird eine Systematik der voneinander abhängigen Hypothesen angegeben. Durch Prüfen aller zweifachen und partiell zweifachen Hypothesen (H0(AxB),......, H0[(AxB)/C],......) kann in drei- und vierdimensionalen Kontingenztafeln das Modell für den Erwartungswert unter Gültigkeit aller Nullhypothesen angegeben werden. Es wird auf ein Kontingenztafelanalyseprogramm (einschließlich Kontrastanalyse und Schätzung der Kontingenz), sowie auf die Anwendung von SAS hingewiesen. 
 

Literatur:

  • Victor, N. 
    Zur Klassifizierung mehrdimensionaler Kontingenztafeln Biometrics 28 (1972), 427- 441
  • Enke, H. 
    Untersuchungsmodelle und Hypothesenprüfungen bei 3-5 dimensionalen Kontingenztafeln Biom. Z. 16 (1974), 472-481
  • Adam, J. ; Scharf, J.-H. ; Enke, H. 
    Methoden der statistischen Analyse in Medizin und Biologie
  • O'Brien, L. G. 
    The Statistical Analysis of Contingency Table Designs University of Newcastle Upon Tyne, Departement of Geography 
    Special Needs Information Research, 51 (1989)
  • Rasch, D. ; Herrendörfer, G. 
    Verfahrensbibliothek, Bd. 2, in Vorbereitung 
    Oldenbourg Verlag, München, Wien

 


Varianzanalyse und Grenzdifferenzen von Serien

gleichartiger Block- Spalt- und Streifenanlagen

Falk Krüger, Lehr -und Versuchsanstalt Pflanzenbau, 14532 Güterfelde

Die zusammenfassende Auswertung mehrfaktorieller Versuche erlaubt Aussagen über die Wirkung der Prüffaktoren, ihrer Wechselwirkungen untereinander und mit den Bedingungen der Versuchsjahre und -orte. Eine statistische Analyse ist unerläßlich, ist aber wegen der Anordnung der Prüfglieder in Blocks mit Groß- Mittel- und Kleinteilstücken und Fragen der Modellwahl im Gegensatz zur Einzelversuchsauswertung zur Zeit noch keine Routineaufgabe. Die Einzelversuchs- und Serienauswertung, wie sie derzeit in der LVAP Güterfelde praktiziert wird, soll deshalb dargestellt werden.

Das Modell der Versuchsanlage wird um die übergeordneten Faktoren Jahre und Orte erweitert. Der zusätzliche Randomisationsschritt führt im Modell zu einem weiteren Restfehler Rest(Jahre x Orte). Die Überlegung, daß SQR(JO) = Summe der SQ(Blocks) der Einzelversuche ist, macht es möglich, sR(JxO) als mittlere natürliche Variabilität innerhalb der Umwelten zu interpretieren.

In der Symbolschreibweise können zweifakt. Streifenanlagen (A+B)­Bl als vierfaktorielle Versuchsserie mit fixem: (JxO) / [(A+B)­Bl oder gemischtem Modellansatz: (JxO) / [(A+B)­Bl dargestellt werden.

Bei gleichen Wiederholungsanzahlen der Einzelversuche führt die zusammenfassende Auswertung über Einzelwerte und über Mittelwerte und den gepoolten Restvarianzen der Versuchsanlagen zu identischen Varianztabellen und Grenzdifferenzen. Die Serienauswertung auf der Basis der Mittelwerte ist notwendig, weil die Umwelten (Jahre , Orte) mit dem gleichen Gewicht "behandelt" werden sollen. Die berechtigt mögliche unterschiedliche Wiederholungsanzahl der Einzelversuche soll eine zusammenfassende Auswertung über Jahre und Orte nicht verzerren. Im Falle der Streifenanlage wird eine vierfaktorielle Varianztabelle anhand der Prüfgliedmittelwerte erstellt, die Blockvarianz.wird zu R(JO) und die Restfehler R(A), R(B) und R(AB) werden zu den Fehlern der Serie R(JOA), R(JOB) und R(JOAB) zusammengefaßt.

Bei Annahme des Modells I für Jahre und Orte sind im Falle signifikanter WW nur sehr eingeschränkt Serienaussagen über die Wirkung der Hauptfaktoren möglich, in kaum übersehbaren vier- und fünffaktoriellen Analysen bedarf es Entscheidungshilfen.

Formeln zur Berechnung der Streuung der Differenz der Mittelwerte der Versuchsserien wurden abgeleitet.

Bei Annahme des Modells II für Jahre und Orte sind Mittelwertvergleiche nur für die Stufen der fixen Prüffaktoren und der Kombinationen unter Berücksichtigung ihrer signifikanten WW zulässig. Im Feldversuchswesen wird bei der Modellwahl nicht einheitlich verfahren. Im Gegensatz zur Einzelversuchsauswertung wird bei der Serienauswertung vorrangig das Modell der abhängigen WW bzw mit Summenrestriktion (SEARL) in Ansatz gebracht. Ergebnisse, die unter Ansatz des unabhängigen WW-Modells errechnet werden, differieren sowohl im F-Test als auch bei Berechnung der Mittelwertsdifferenzen, dies sollte bei der Auswahl von Statistiksoftware beachtet werden.

Bei Annahme von gemischten Modellen kann die Belassung nicht relevanter zufälliger WW im Modell zu verzerrten Ergebnissen führen. Das gültige Modell wird während der Auswertung erstellt, die vielen möglichen Modelle der Kombinationen zufälliger WW führen jeweils zu unterschiedlichen F-Tests und unterschiedlichen Varianzen der Mittelwertsdifferenzen. Programmlösungen wie bei der Einzelversuchsauswertung sind nicht rationell zu erstellen, das Problem kann nur mit leistungsfähiger Software behandelt werden.

Für die Zusammenfassung der Ergebnisse aus unterschiedlichen Versuchsanlagen zu Serienauswertungen sind Kompromißlösungen zu diskutieren.

Literatur:

  • Dörfel,H. und Bätz,G.: Mittelwertvergleiche bei signifikanten Wechselwirkungen Archiv für Acker- und Pflanzenbau und Bodenkunde 24 (1980), 5
  • Dörfel,H: und Bauer, T.: Planung und Auswertung der dreifaktoriellen Streifenspaltanlagen (A+B)/C-Bl und der Spaltstreifenanlage A/(B+C) 
    Biometrie und Informatik in Medizin und Biologie 22 (2/1991), 48-57
  • Geidel, H. und Haufe, W.: Zur zusammenfassenden Auswertung von Versuchsserien I -III 
    EDV in Medizin und Biologie 1 (1970),2-5; 5 (1974), 1-6 und 57-61
  • Guiard, V. Darstellung von Feldversuchsanlagen als Kreuzklassifikation und ihre Auswertung mit SAS, Zeitschrift für Agrarinformatik 1996 4(5), 91-97
  • Rasch, D., Herrendörfer, G., Bock, J., Victor, N., Guiard, V. 
    Verfahrensbibliothek Versuchsplanung und -auswertung, Oldenburgverlag 1996 Band 1 und Band 2 (im Druck)
  • Utz, H.F.:Die zusammenfassende Analyse einer Serie von Spaltanlagen, 
    EDV in Medizin und Biologie 5(1974),50-55

 


Schätzung von Varianzkomponenten in gemischten linearen Modellen bei unbalanzierten Daten

Joachim Spilke 1) und Eildert Groeneveld 2)

1) Landwirtschaftliche Fakultät der Universität Halle, Arbeitsgruppe Biometrie und Agrarinformatik

2) Institut für Tierzucht und Tierverhalten Mariensee der FAL Braunschweig-Völkenrode

Viele praktische Anwendungen im Bereich der Pflanzenbau- als auch Nutztierwissenschaften zur Schätzung von Varianzkomponenten basieren auf unbalanzierten Daten. Die vorteilhaften Eigenschaften von ANOVA-Schätzungen (Erwartungstreue, kleinste Varianz unter allen quadratischen Schätzfunktionen und bei Normalverteilung kleinste Varianz unter allen erwartungstreuen Schätzfunktionen) gehen unter diesen Bedingungen jedoch mit Ausnahme der Erwartungstreue verloren. Beachtet man weiter, daß oft von gemischten Modellen auszugehen ist wird das große Interesse an Konzepten deutlich, die nicht derartigen Einschränkungen unterliegen. Das gilt z.B. für REML-Schätzer, wobei die praktische Realisierung dieser auf dem Maximum-Likelihood-Prinzip basierenden Methode mit einem erheblichen numerischen Aufwand verbunden ist. Die notwendige Optimierung der Likelihood-Funktion führt zu einer Abhängigkeit von der verwendeten Optimierungsstrategie und unterschiedlichen Ergebnissen beim Vergleich verschiedener Vorgehensweisen.

Das gilt insbesondere für multivariate Anwendungen mit unterschiedlichen Modellen der betrachteten Merkmale. Ausgehend von dieser Problemstellung wurde mit Hilfe der Monte-Carlo-Simulation die Wirksamkeit des im Programm VCE genutzten Optimierers (Quasi-Newton) für die (Co)Varianzkomponentenschätzung an zwei für die Nutztierwissenschaften typischen multivariaten Prüfplänen mit ausgeprägt unbalanzierten Datenstrukturen untersucht (I:Feld- und Stationsdaten; II:Reinzucht- und Kreuzungsdaten). Dabei wurden verschiedene Versuchspläne bzw. Parametersätze der (Co)Varianzen untersucht. Bei 100 (I) bzw. 50 (II) Simulationsläufen in 4 bzw. 3 Varianten folgen die Aussagen:

1. Für beide Anwendungsfälle wurden in allen Simulationsläufen gültige Ergebnisse erzielt (Konvergenz des Gleichungssystems, kein Programmabbruch).

2. Für den Datensatz Feld-Station wurde eine deutliche Abhängigkeit der realisierten Genauigkeit vom Versuchsplan deutlich, entsprechende Aussagen zur Versuchsplanung sind daraus ableitbar.

3. Für den Datensatz Reinzucht-Kreuzung führen die bei den derzeitigen Modellierungsmöglichkeiten in Kauf zu nehmende Fehler zu verzerrten Schätzwerten. Diese haben jedoch bei der untersuchten Problemstellung geringe praktische Auswirkungen.

Literatur:

  • Ahrens, H.: Varianzanalyse. Akademie-Verlag, Berlin 1967
  • Fisz, M.: Wahrscheinlichkeitsrechnung und mathematische Statistik. Deutscher Verlag der Wissenschaften., Berlin 1970
  • Groeneveld, E.; Kovac, M.: A note on multiple solutions in multi-variate REML covariance component estimation. Journal of Dairy Science 73 (1990) 2221-2229
  • Spilke, J.; Groeneveld, E.; Mielenz N.: Monte-Carlo Simulation in Variance-Covariance-Component Estimation in Mixed Linear Multiple Trait Models (Comparison of ANOVA, HENDIII, REML). Archive of Animal Breeding 36(1993) 679-686
  • Spilke, J.; Groeneveld, E.: Comparison of four multivariate REML (Co)variance component estimation packages. 5th World Congress on Genetics Applied to Livestock Production, Guelph (Can) August 7-12, 1994
  • Swallow, W.H.; Monahan,J.F.; Monte carlo comparison of ANOVA, MIVQUE, REML and ML estimators of variance components. Technometrics 26 (1984), 47-57

 


Zu einigen Fragen der Auswertung gemischter Modelle im balanzierten Fall

Budi Susetyo,

Biometrie und Populationsgenetik, Justus-Liebig-Universität, Gießen

und Dept. of Statistics, Bogor Agriculture University, Indonesia.


 

 

Bei statistischen Programmpaketen sollte man generell darauf achten, welche Modelle und Verfahren die verwendete Software der Auswertung zugrunde legt. Unser Beitrag wird auf einige Besonderheiten von SAS eingehen, die im Zusammenhang mit Signifikanztests und Varianzschätzungen bei gemischten Modellen im balanzierten Fall auftreten.

In gemischten (und zufälligen) Modellen muß bekanntlich bei gewissen Signifikanzprüfungen statt des konventionellen F-Tests der Quasi-F-Test verwendet werden, den SAS, wie viele andere Pakete, automatisch anwendet. Allerdings kann es dabei in der Praxis zu negativen empirischen F-Werten kommen, die aus theoretischen Gründen nicht zugelassen sind. SAS allerdings akzeptiert diese negativen F-Werte, statt sie mit dem von Cochran (1951) vorgeschlagenen modifizierten Quasi-F-Test zu umgehen.

Zur Schätzung von Varianzkomponenten zufälliger Effekte werden üblicherweise vier Verfahren angeboten: ANOVAMINQUEML undREML. Das SAS-Programmpaket bietet in GLM das ANOVA-Verfahren an, und in MIXED die drei verbleibenden Schätzverfahren, mitREML als Voreinstellung. Bei der Entscheidung für eines dieser Verfahren sollte der Anwender daher gewisse Kenntnisse über die einzelnen Methoden besitzen, so gilt z.B., daß bei der ANOVA-Methode für die geschätzten Varianzkomponenten wieder (theoretisch "verbotene") negative Werte auftreten können.

Eine weitere in SAS "stillschweigend" eingebaute Besonderheit betrifft die Wahl des zugrundeliegenden linearen Modells. Bei gemischten Modellen gibt es bzgl. der Wechselwirkungseffekte zwei konkurrierende Versionen, nämlich eine mit und eine ohne die sogenannte Sigma-Restriktion. Die beiden Versionen sind nicht gleichwertig, sondern führen sowohl bezüglich einiger Varianzschätzungen als auch einiger F-Prüfstatistiken zu unterschiedlichen Werten, vgl. Hocking (1973), Samuels et al. (1991) oder Guiard (1996). Die gängige Fachliteratur ignoriert oft diese Diskrepanzen und erwähnt, je nach Autor, nur eine der beiden Versionen. Ahnlich verfährt SAS, indem es dem Anwender ausschließlich die Verrechnungsvariante ohne Sigma-Restriktion bereitstellt. Wir haben daher ein ergänzendes Modul in unser ESVP-Expertensystem integriert, das in Verbindung mit SAS auch eine Verrechnung nach dem Modell mit Sigma-Restriktion ermöglicht.

Literatur :

  • Cochran, W. G., 1951: Testing a linear relation among variances. Biometrics 7, 17-32.
  • Guiard, V., 1996: Darstellung von Feldversuchsanlagen als Kreuzklassifikation und ihre Auswertung mit SAS. Zeitschr. f. Agrarinf.,5, 91-97.
  • Samuels, M. L., G. Casella und G. P. McCabe, 1991: Interpreting Blocks and Random Factors. JASA 86, 799-808.
  • Hocking, R. R., 1973: A Discussion of the Two-Way Mixed Model. Am. Stat., 27, 148-152.

Stand : 13.03.1997 (Feth, Schumacher)