CC BY-NC-ND 4.0 · Gesundheitswesen 2019; 81(03): e82-e91
DOI: 10.1055/a-0862-0588
Konsensstatement
Eigentümer und Copyright ©Georg Thieme Verlag KG 2019

DNVF-Memorandum III – Methoden für die Versorgungsforschung, Teil 4 – Konzept und Methoden der organisationsbezogenen Versorgungsforschung.

Kapitel 3 – Methodische Ansätze zur Evaluation und Implementierung komplexer Interventionen in VersorgungsorganisationenDNVF-Memorandum III – Methods for Health Services Research, Part 4 – Concept and Methods for Organizational Health Services Research.Chapter 3 – Methodological Approaches for the Evaluation and Implementation of Complex Interventions in Healthcare Organizations
Markus Antonius Wirtz
1   Institut für Psychologie, Pädagogische Hochschule Freiburg, Freiburg
,
Eva Maria Bitzer
2   Institut für Alltagskultur, Bewegung und Gesundheit, Padagogische Hochschule Freiburg, Freiburg
,
Ute-Susann Albert
3   Medizinische Fakultät, c/o AWMF-Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V., Philipps-Universität Marburg, Marburg
,
Lena Ansmann
4   Department für Versorgungsforschung, Carl von Ossietzky Universität Oldenburg, Oldenburg
5   Institut für Medizinsoziologie, Versorgungsforschung und Rehabilitationswissenschaften, Humanwissenschaftliche Fakultät und Medizinische Fakultät, Universität zu Köln, Köln
,
Martina Bögel
6   Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM), Geschäftsstelle, Schwalmstadt-Treysa
,
Nicole Ernstmann
7   Klinik und Poliklinik für Psychosomatische Medizin und Psychotherapie, Forschungsstelle für Gesundheitskommunikation und Versorgungsforschung, Universitätsklinikum Bonn, Bonn
,
Alfons Hollederer
8   Bayerisches Landesamt fur Gesundheit und Lebensmittelsicherheit, Sachgebiet GE6 Versorgungsqualität, Gesundheitsökonomie, Gesundheitssystemanalyse, Nürnberg
,
Kira Isabel Hower
5   Institut für Medizinsoziologie, Versorgungsforschung und Rehabilitationswissenschaften, Humanwissenschaftliche Fakultät und Medizinische Fakultät, Universität zu Köln, Köln
,
Marina Nowak
5   Institut für Medizinsoziologie, Versorgungsforschung und Rehabilitationswissenschaften, Humanwissenschaftliche Fakultät und Medizinische Fakultät, Universität zu Köln, Köln
,
Horst Christian Vollmar
9   Medizinische Fakultät, Abteilung für Allgemeinmedizin, Ruhr-Universität Bochum, Bochum
› Author Affiliations
Further Information

Korrespondenzadresse

Prof. Lena Ansmann
Department für Versorgungsforschung
Abteilung Organisationsbezogene Versorgungsforschung
Carl von Ossietzky Universitat Oldenburg
Ammerländer Heerstraße 140
26129 Oldenburg

Publication History

Publication Date:
05 April 2019 (online)

 

Zusammenfassung

Das Forschungsfeld der organisationsbezogenen Versorgungsforschung ist in Deutschland noch relativ jung und von zunehmendem Interesse. Das Deutsche Netzwerk Versorgungsforschung e. V. (DNVF e. V.) hat im Jahr 2009 – getragen von den im DNVF organisierten Fachgesellschaften und Mitgliedern – eine Vertiefung zu „Methoden der organisationsbezogenen Versorgungsforschung“ des Memorandums III, Teil 1 konsentiert [1]. Ausgehend von dieser Veröffentlichung und dem gegenwärtigen Bedeutungsgewinn des Forschungsfeldes ist eine Weiterentwicklung der konzeptionellen und methodischen Grundlage erforderlich. Die Neuauflage und Erweiterung der Veröffentlichung aus dem Jahr 2009 gliedert sich in 3 Kapitel: (1) Definition und Konzept der organisationsbezogenen Versorgungsforschung, (2) Methodische Ansätze der organisationsbezogenen Versorgungsforschung: Zielgrößen, Datenquellen, Datenerhebung, und Datenanalyse, (3) Methodische Ansätze zur Konzeption, Evaluation und Implementierung komplexer Interventionen in Versorgungsorganisationen. Ziel des dritten Kapitels ist es, Methoden für das Design von Interventionen, für die Wirkungs- und Wirksamkeitsforschung sowie für die Implementierungsforschung unter besonderer Berücksichtigung des organisationalen Kontextes, in dem Versorgungsinterventionen stattfinden, vorzustellen.


#

Abstract

Organizational health services research is still a relatively young field of research in Germany which is of increasing interest. The German Network Health Services Research e.V. (DNVF e.V.) published in 2009 – supported by expert associations and individual members of the DNVF – a guide on “Methods for organizational health services research” of the Memorandum III, part 1 [1]. Originating from this publication and facilitated by the increasing relevance of the field, a necessity to refine the conceptual and methodological basis became evident. The update and extension of the publication from 2009 consists of three chapters: (1) Definition and concept of organizational health services research, (2) Methodological approaches in organizational health services research: indicators, data sources, data collection and data analysis, (3) Methodological approaches for the design, evaluation and implementation of complex interventions in health care organizations. The aim of the third chapter is to present methods for intervention design, evaluation of effectiveness and efficacy as well as implementation research with particular regard to the organizational context of interventions to improve health care.


#

Phasen der Evaluation und Implementierungsforschung in der organisationsbezogenen Versorgungsforschung

Evaluation in der Versorgungsforschung bezeichnet die systematische, empirisch gestützte Bewertung der Konzeption, der Umsetzung, der Wirkungen und des Nutzens von Versorgungsmaßnahmen bzw. -programmen sowie deren Implementierung in den Versorgungsalltag. Ein umfassendes Evaluationsverständnis zielt darauf ab, alle Strukturmerkmale, Handlungen, Prozesse und Maßnahmen, die der systematischen Förderung der Gesundheit und Lebensqualität von Patienten[1] dienen, wirksamkeitsorientiert zu erfassen, zu analysieren und zu optimieren sowie hinsichtlich aller Folgeeffekte zu prüfen. Die Wirkung und der Nutzen von Maßnahmen oder Interventionen muss sich daran bemessen lassen, inwiefern patientenrelevante Ziele, d. h. eine Verbesserung (oder der Erhalt) des Gesundheitszustands oder der Lebensqualität (Patient-related Outcomes, patientenrelevante Endpunkte), erreicht werden können (Wirksamkeitsforschung; summative Evaluation; [2]). Programme können in diesem Zusammenhang als Maßnahmenbündel verstanden werden, bei denen mehrere Agenten (z. B. Ärzte, Pflegekräfte und Therapeuten ggf. in verschiedenen Versorgungsorganisationen) an den Versorgungsprozessen beteiligt sind, die aus unterschiedlichen Teilkomponenten bestehen und der Erreichung einer übergeordneten Zielsetzung dienen [3]. Hierbei ist zu berücksichtigen, dass Interventionen in Organisationen auch auf die Strukturen und Prozesse von Organisationen selbst wirken können. Veränderungen in Organisationen können nicht nur als Moderator- oder Mediatorvariablen für die Effekte der Interventionen auf patientenrelevante Ziele (z. B. Optimierung von Behandlungsprozessen) bedeutsam sein, sondern zusätzlich auch unabhängig davon Organisationmerkmale beeinflussen (z. B. Tätigkeitsprofile der Professionals, Kooperation in Behandlungsteams, Dokumentationsnotwendigkeiten).

Eine formative Evaluation strebt die empirische Identifikation von Informationen und Einflussfaktoren an, die zur Optimierung der Programmgestaltung genutzt werden können. Hierbei werden empirische Phänomene im Verlauf der Programmdurchführung methodisch erfasst und hinsichtlich Struktur-, Prozess-, Implementierungs- und Ergebnismerkmalen bewertet, sodass ein besseres Verständnis der Wirkdeterminanten und -prozesse aufgrund der reflektierten Steuerungserfahrungen und Wirkungskontrolle resultiert (Wirkungsforschung; [2]).

Besonderheiten der Evaluation komplexer Interventionen in Versorgungsorganisationen

Für die organisationsbezogene Versorgungsforschung sind insbesondere erweiterte moderne Evaluationsmodelle von Bedeutung, die Konzepte der Qualitätssicherung und Kriterien der Evidenzbasierung miteinander verknüpfen [3] [4] [5] [6] [7].

Diese Modelle betonen die folgenden Aspekte:

  • Die theorie- und empiriebasierte Konzeption

  • Die praxisgerechte Implementierung unter Berücksichtigung struktureller und organisationaler Voraussetzungen

  • Die kontinuierliche qualitätsorientierte Programmprüfung, -adaptation und -optimierung,

  • Die Wirksamkeitsprüfung

  • Die systematische Implementierung als wirksam nachgewiesener Programme in der breiten und heterogenen Versorgungspraxis (Adaptation und Weiterentwicklung in der Versorgungsroutine; vgl. auch [8])

Die [Abb. 1] zeigt die 4 Phasen nach Craig et al. [6]: Entwicklungsphase, Prüfung der Machbarkeit und Pilotierung, Evaluation der Wirksamkeit und Implementierung. Das Grundmodell ist implizit rückgekoppelt bzw. zirkulär angelegt: Nach erfolgreicher Implementierung sollten neue, ergänzende oder differenzierende Forschungsfragen identifiziert und dann der Entwicklungsprozess (Phase 1) unter Berücksichtigung der in den Phasen 2–4 gewonnenen Erfahrungen erneut durchlaufen werden. In der Praxis der Versorgungsforschung entstehen neue Forschungsfragen nicht ausschließlich aus den Erfahrungen in der Implementierungsphase (gekennzeichnet als Pfad 2 in der Abbildung), sondern die Evaluationsergebnisse können unmittelbar Anlass zur Erweiterung, Modifikation oder Differenzierung des Interventionskonzepts geben, bevor dieses in der Versorgungspraxis implementiert wird (z. B. Erweiterung auf andere Patientengruppen, andere Versorgungseinheiten oder -einrichtungen). So gilt es vor der Entscheidung zur Implementierung (Phase 4) genau zu prüfen: rechtfertigen die aus Phase 1–3 gewonnenen Erkenntnisse eine Überführung der Intervention in den Versorgungsalltag? Beispiel: Sollte ein in einer stationären Einrichtung erfolgreich umgesetztes und als wirksam erachtetes Schulungsprogramm (a) flächendeckend in allen Einrichtungen implementiert werden? Oder sollte (b) zunächst eine multizentrische Studie durchgeführt werden, um systematisch weitere Erfahrungen zur Anpassung der Intervention, Machbarkeit und Evaluation zu sammeln? Entscheidet man sich für die Option (b) wird dies durch den Pfad 1, der im Originalmodell nach Craig et al. [6] nicht enthalten ist, repräsentiert.

Zoom Image
Abb. 1 Schwerpunkte der organisationsbezogenen Versorgungsforschung orientiert am Modell der Evaluation komplexer Interventionen nach [6].

Angelehnt an diese Modellvorstellung können für die Versorgungsforschung drei zentrale Studienbereiche unterschieden werden ([Abb. 1]): Interventionsdesign, Wirksamkeits- und Wirkungsforschung sowie Implementierungsforschung.


#
#

Interventionsdesign

Entwicklung

Die Medical Research Council (MRC) Guidance zur Entwicklung und Evaluation komplexer Interventionen [6] [9] betont die Bedeutung der systematischen Entwicklung der Gestaltung von Interventionen. Die Entwicklung einer Maßnahme oder eines Programms bedarf der bestmöglichen Expertise aus der Erfahrungspraxis der Programmentwickler, empirischer Forschungsbefunde und externer Evidenz sowie einer expliziten theoretischen und normativen Fundierung [10]. Colquhoun et al. [11] geben konkrete Hinweise zum methodischen Vorgehen bei der Gestaltung von Interventionen zur Verhaltensänderung von Professionals in der Versorgung, die zu großen Teilen ebenfalls mit den Inhalten des Implementation of Change Model von Grol und Wensing [12] in Einklang stehen. Obwohl hierbei Interventionen auf Organisations- oder Systemebene kaum berücksichtigt sind, geben die identifizierten 4 zentralen Aufgaben des Interventionsdesigns eine wichtige Orientierung für die organisationsbezogene Versorgungsforschung.

Systematische Problemanalyse

Zunächst muss die Problemsituation auf allen organisationalen Ebenen analysiert werden, die durch die Intervention verändert werden soll, um mögliche Barrieren der Umsetzung und zentrale Stellschrauben zur Veränderung erkennen zu können [4] [13] [14]. Hier sind ausdrücklich die organisationalen Strukturen und Rahmenbedingungen in den Blick zu nehmen [15]. Zu den Erkenntnisquellen gehören neben Theoriewissen und Erkenntnissen aus aktueller Forschung zu dem spezifischen Versorgungsbereich auch die Nutzung vorliegender und die Erhebung neuer Primärdaten aus der konkreten Versorgungspraxis und beteiligten Organisationen zur Analyse der Zielgruppe und des Settings (siehe Kapitel 2 [16]).


#

Auswahl von Interventionskomponenten

Basierend auf der Problemanalyse müssen geeignete Interventionskomponenten identifiziert, ausgewählt, adaptiert bzw. entwickelt werden, die die identifizierten Barrieren reduzieren können, zu Zielgruppe und Setting passen und machbar sind [17]. Techniken, die zur Auswahl von Komponenten geeignet sind, sind das Intervention Mapping [18] und das Mapping von Barrieren entlang des Theoretical Domains Frameworks [19].


#

Theory of Change (ToC) bzw. Programmtheorie

Um nicht nur Aussagen über die Effektivität von komplexen Interventionen treffen zu können, sondern erklären zu können, wie und weshalb welche Komponente einer Intervention einen bestimmten Effekt auslöst, ist ein theoriebasierter Prozess des Intervention Designs und der späteren Evaluation erforderlich [20]. Eine „Theory of Change“ bzw. Programmtheorie [6] [15] expliziert die Interventionslogik, indem als relevant postulierte Merkmale, outcomerelevante Wirkbeziehungen und Wirkungsketten sowie bedeutsame Rahmenbedingungen in einem Modell integrativ zusammengefasst werden. Visuell wird die Theorie häufig mit einer „ToC Map“ [21] oder auch einem „Logic Model“ [22] repräsentiert.

Vor dem Hintergrund vereinbarter Ziele muss das Interventionsdesign Wirkdeterminanten und Wirkungen auf unterschiedlichen Ebenen (Mikro-, Meso- und Makroebene) in den Blick nehmen und in einer „Theory of Change“ bzw. Programmtheorie explizieren: auf Patientenebene (z. B. behandlungsbezogene Einstellungen, Erkrankungsmerkmale wie z. B. Schweregrad der Erkrankung, Ko- und Multimorbidität), auf Behandlerebene (z. B. Arbeitsbedingungen, Kommunikationskompetenzen) oder auf organisationaler Ebene (z. B. Stations- oder Abteilungszugehörigkeit, Organisationsklima). Eine besondere Herausforderung stellen Interaktionseffekte zwischen Ebenen dar (z. B. Abhängigkeit der behandlungsbezogenen Einstellung des Patienten von Merkmalen des behandelnden Arztes). Organisationen sind dabei als in sich komplexe Kontextfaktoren zu berücksichtigen [23]. Bei der Festlegung der Programmtheorie muss zwischen Merkmalen unterschieden werden, die in kausalem Sinne Veränderungen der Outcome-Parameter zur Folge haben (unabhängige Variablen), den Effekt von unabhängigen Variablen auf die Outcome-Parameter vermitteln (Mediatorvariable; z. B. Intervention → Einübung → Outcome) oder die die Stärke des Einflusses einer unabhängigen Variable auf die Outcome-Parameter mitbestimmt (Moderatorvariable; insb. Kontextmerkmale).

Insbesondere Theorien der individuellen Verhaltensänderung, aber auch des organisationalen Wandels sind hier wesentlich, um eine theoretische und normative Fundierung zu schaffen [11]. Systemtheoretische Ansätze und Theorien organisationsbezogener Strukturen und Prozesse stellen einen wichtigen konzeptionellen Hintergrund für die Formulierung einer Programmtheorie zur Verfügung, da hier die strukturellen Besonderheiten in komplexen Organisationen berücksichtigt werden [16] [24].


#

Stakeholder-Partizipation

Um die Wirkung einer Intervention für die Zielgruppe zu optimieren, sollten Vertreter der Zielgruppe und weitere Stakeholder an der Entwicklung der Programmtheorie und der Intervention teilhaben [25]. Mittels Fokusgruppen, Befragungen, Interviews und Workshops kann der Input der Stakeholder eingeholt werden, um daraufhin eine Intervention zu konzipieren, die die Machbarkeit und Akzeptanz der Stakeholder bestmöglich gewährleistet.


#
#

Machbarkeit und Pilotierung

Um Schwierigkeiten bei der Umsetzung und mehrdeutige Ergebnisse zu verhindern, sollte jede Intervention zunächst pilotiert werden und ihre angemessene Umsetzbarkeit überprüft bzw. erfahrungsbasiert entwickelt werden [17] [26] [27]. Somit können bei Schwierigkeiten Anpassungen vorgenommen werden, wodurch Ressourcen besser genutzt und der Verschwendung von Ressourcen vorgebeugt werden kann [28].

Eine Machbarkeitsstudie zu einer Intervention zielt zum einen auf die Identifikation nicht intendierter Konsequenzen und die Untersuchung der Verträglichkeit, zum anderen auch auf die Informationsgewinnung zur Entwicklung des Evaluationsdesigns bzw. der Programmtheorie ab [29]. Dies sollte sowohl hinsichtlich aller patientenrelevanten Aspekte als auch weiterer Effekte auf die Versorgungsinstitution bzw. der organisationalen Untereinheiten (z. B. Behandlungsteams, Stationen) erfolgen.

Die Analyse von Akzeptanz und Barrieren der praktischen Umsetzbarkeit kann dabei z. B. dem Rahmenmodell des sogenannten Innovations-Decision-Process folgen bzw. dessen Konstrukte berücksichtigen [30]. Der relative Vorteil, die Kompatibilität, die Komplexität, die Überprüfbarkeit sowie die Beobachtbarkeit sind zentrale Eigenschaften der Intervention, die die Anwender wahrnehmen und die deren Entscheidung zur Annahme und somit zur Form der Implementierung der Intervention mitbestimmen [31]. Die allgemeinen und organisationsspezifischen Möglichkeiten und die Bereitschaft zur Veränderung (organizational readiness [31] [32]) bilden wesentliche Determinanten der Implementierbarkeit und des Interventionserfolgs.

Pilotstudien bieten sich dabei auf Organisations- und Instrumentenebene an. Eine Pilotstudie simuliert die geplante Wirksamkeitsstudie und zeigt dadurch Anpassungsbedarf im Studienprotokoll auf (für ein Beispiel siehe [33]). Pilotstudien können bei der Rekrutierungsplanung unterstützen sowie zur Kalkulation der Stichprobengröße genutzt werden [7] [27]. Neben einer vollständigen Pilotstudie können auch einzelne Komponenten durch Pretests überprüft werden. So werden z. B. kognitive Pretests als Verfahren der Instrumentenpretests im Zwei-Phasen Pretesting zur Überprüfung von Fragebögen angewandt [34]. Zusätzlich sind ethische Bedenken, sowie Datenschutzkonzepte, insbesondere bei der Verknüpfung mit Sekundärdaten, frühzeitig einzuplanen bzw. zu berücksichtigen [9].

Um Aspekte des Interventionsdesigns auf Organisations- und Instrumentenebene zu evaluieren, kommen eher deskriptive, qualitative, offene und informationsidentifizierende, theorieaufdeckende Erhebungs- und Analysemethoden zum Einsatz (z. B. Beobachtungs- und Befragungstechniken, Moderationstechniken, Leitfaden- und Fokusgruppeninterviews, Konsensusverfahren, Delphi-Studien) [35] [36], wobei die Auswahl von dem erwarteten Informationsgewinn bzgl. der Fragestellung und der praktischen Umsetzbarkeit abhängt [29] [37].

Zur Prüfung von Theoriemodellen eignet sich in der Regel die Anwendung multivariater Verfahren (insbesondere Strukturgleichungsmodelle). Mehrebenenanalysen sind geeignet, wenn Beziehungsstrukturen zwischen Variablen auf verschiedenen Datenebenen analysiert werden [38] [39].

Das Interventionsdesign formuliert ein theorie- und evidenzbasiertes Interventionsprogramm, das ausgehend von der Problemanalyse und unter Partizipation von Stakeholdern Interventionskomponenten benennt, die aufgrund explizit benannter Wirkdeterminanten und -prozesse die angestrebten Veränderungen in den Outcomes bewirken sollten. Elemente, die eine gute Implementierbarkeit und Akzeptanz in der Routineversorgung befördern, müssen identifiziert und berücksichtigt werden. Alle Informationen, die die Interventionsgestaltung und -implementierung betreffen, sollten in einem detaillierten Interventionsmanual vorgegeben bzw. dokumentiert werden.


#
#

Wirksamkeitsforschung

Im Mittelpunkt der Wirksamkeitsprüfung steht die summative Evaluation der Interventionsmaßnahmen. Bei der Wahl des Untersuchungsdesigns sind die Kriterien der Evidenzbasierung ausschlaggebend [40]. Ein eindeutiger Wirksamkeitsnachweis erfordert die Durchführung einer randomisierten, kontrollierten Studie, wenn Einzelpersonen den Bedingungen zugeordnet werden, oder einer cluster-randomisierten Studie, wenn Organisationseinheiten (z. B. Stationen, Abteilungen, Arbeitsteams) zugeteilt werden [39]. Ist eine randomisierte Zuteilung zu Vergleichsgruppen nicht möglich, können kontrollierte quasi-experimentelle Designs verwendet werden [41]. Sowohl bei der Stichprobenzusammenstellung als auch bei der Datenauswertung soll explizit begründet werden, welche Kontrollvariablen berücksichtigt werden (müssen), um eine bestmögliche interne Validität gewährleisten zu können (z. B. Propensity Score Matching, Parallelisierung oder regressionsanalytische Kontrolle von Kovariaten).

In der Kontrollbedingung sollte in der Regel die übliche Versorgungspraxis realisiert werden, damit der inkrementelle Effekt der Intervention bestimmt werden kann. Im Rahmen der Studienplanung sollte eine Stichprobenkalkulation erfolgen, sodass sichergestellt wird, dass empirisch relevante Effekte auch bei moderaten Effektgrößen und komplexen Interventionen nachweisbar sind. Als Outcome-Kriterien sind insbesondere patientenrelevante primäre Endpunkte zu verwenden [9]. Zudem sollten alle empirisch relevanten Effekte für alle Interessensgruppen abgebildet werden. In der organisationsbezogenen Versorgungsforschung ist die Anwendung mehrebenenanalytischer statistischer Methoden in der Regel erforderlich, um die summativen Effekte unter Berücksichtigung der verschiedenen Versorgungsebenen valide bestimmen zu können. Ein wesentlicher Fokus sollte darauf liegen, Wirkdeterminanten (isolierte und Interaktionseffekte) auf unterschiedlichen Organisationsebenen (z. B. Patienten, Stationen, Abteilungen und Kliniken) zu bestimmen [6]. Konventionelle Studiendesigns zur summativen Evaluation wie etwa randomisiert, kontrollierte Studien (RCT) können den Unsicherheiten, Unvorhersehbarkeiten und der Vielfalt interagierender Einflüsse auf ein Outcome in Studien zur Evaluation komplexer Interventionen jedoch nur schwer Rechnung tragen. Die aktuelle internationale Entwicklung in der Versorgungsforschung geht daher dahin, diese Komplexität durch den Einbezug von Theorien der Complexity Science zum Untersuchungsgegenstand zu machen und Methoden zu entwickeln, die pragmatische Aspekte als wesentliche Komponenten einer wissenschaftlich fundierter und belastbaren Herangehensweise berücksichtigen [42] [43].

Ergänzend zur summativen Evaluationsperspektive sind auch Fragen der formativen Evaluation, die die optimierungsorientierte Interventionsgestaltung und -implementierung betreffen, systematisch mit zu behandeln [44]. Bei der Evaluation von Interventionen in Versorgungsorganisationen ist insbesondere zu beachten, dass sich die Umsetzung des Programms sowie die Wirkmechanismen in jeder Organisation unterscheiden können [2]. Eine völlige Standardisierung der Intervention, wie sie bei Maßnahmen auf Ebene des Individuums möglich ist, ist bei Interventionen auf Organisationsebene nicht umsetzbar. Die Unterschiede zwischen Organisationen sollten in der formativen Evaluation beachtet werden. Eine weitere Besonderheit sind Wechselwirkungen zwischen der Organisation (Mesoebene), ihren Mitgliedern (Mikroebene) und dem gesellschaftlichen System (Makroebene), die die Wirksamkeit einer Intervention beeinflussen können (siehe Kap. 1 [45]).

Während in der Phase des Interventionsdesigns die endgültige Intervention noch nicht realisiert wird, ist es in dieser Phase möglich, das tatsächlich geplante Gesamtprogramm in der praktischen Versorgungsanwendung zu analysieren. Kernelement ist hier ein systematisches Monitoring [4]. Das Monitoring begleitet den gesamten Prozess der Umsetzung der (neu)entwickelten Intervention im Rahmen der (erstmaligen) Anwendung und dokumentiert alle zur Einschätzung der Wirksamkeit und Praxisadäquatheit bedeutsamen Phänomene und Veränderungen. Orientiert am PDCA-Zyklus (Plan-Do-Check-Act) werden bei der Identifikation von Problemen korrigierende Maßnahmen identifiziert und nach kritischer Prüfung umgesetzt, sodass deren empirische Effekte unmittelbar erkannt und evaluiert werden können [40]. Dies führt dazu, dass Versorgungsprozesse erfahrungsbasiert so angepasst werden, dass sich die Intervention konzeptgetreu bestmöglich in der Praxis realisieren lässt. Diese formativen Evaluationsziele ergänzen die Erkenntnisse der vorgelagerten Phasen des Interventionsdesigns und der folgenden Phase der Implementierungsforschung. So kann das Monitoring wertvolle Hinweise zur Bedeutung der lokalen Implementierungsbedingungen liefern, wenn die Intervention in verschiedenen Organisationseinheiten oder Institutionen implementiert wird.

Entscheidungen, Maßnahmen und Bewertungen im Rahmen der formativen Evaluation sollten transparent dokumentiert werden. Es sollte nachvollziehbar dargestellt werden, ob diese Auswirkungen auf das Interventionsdesign und insbesondere die Programmtheorie haben (konzeptuelle Anpassungen) oder lediglich die Anwendungspraxis der entwickelten Intervention betreffen (technische Anpassungen) [2]. Werden in der Programmtheorie formulierte Wirkprinzipien durch formativ motivierte Veränderungen beeinflusst, so sollten mögliche Probleme für die Aussagekraft des summativen Evaluationsvorhabens dokumentiert und kritisch analysiert werden. Rossi et al. [2] betonen, dass Modifikationen der Intervention in der Anwendungspraxis nicht grundsätzlich vermieden werden müssen, da jede theoriegeleitete und zielorientierte Intervention in komplexen sozialen und Versorgungssystemen bei Bedarf erfahrungsabhängigen Anpassungsprozessen unterliegen sollte. Jedoch gilt, dass die summative Evaluation umso solider erfolgt, je weniger die Anpassungsnotwendigkeiten die der Intervention zugrunde liegenden Annahmen und Prinzipien der Veränderung („Theory of Change“) verändern oder beeinträchtigen.

Die Wirksamkeitsforschung bestimmt mittels kontrollierter Studiendesigns, ob und in welchem Maße das Interventionsprogramm insbesondere patientenrelevante Outcome-Kriterien beeinflusst. Begleitende formative Evaluationsschritte dienen der empirisch gestützten Optimierung der Programmgestaltung und der Identifikation kritischer Voraussetzungen der Implementation in der Versorgungspraxis (Wirkungsforschung).


#

Implementierungsforschung

Wenn bei einem Interventionsdesign bereits Anforderungen und organisatorische, soziale und rechtliche Rahmenbedingungen auch der späteren Versorgungspraxis mitgedacht und die Wirkungsforschung adäquat geplant und durchgeführt wurden, liegt nach Abschluss dieser Phasen idealerweise ein klar definiertes, als wirksam nachgewiesenes Interventionskonzept vor. Eine als wirksam evaluierte Intervention bedarf jedoch in der Regel einer Anpassung an die lokalen personellen, strukturellen, materiellen und finanziellen Rahmenbedingungen (implementierte Intervention, Tailoring; [1] [31] [32] [46] [47]), sodass Implementierungsforschung als solche, zusätzlich zu den Bereichen Interventionsdesign und Wirksamkeitsforschung getrennt betrachtet werden muss. Die Implementierung kann unterschiedliche Reichweiten besitzen. So kann die Verstetigung der Intervention in den bereits an Entwicklung, Prüfung von Machbarkeit und Wirksamkeit beteiligten Organisation(seinheit)en (Adoption), oder aber die Ausdehnung auf andere Organisation (seinheit) en (z. B. lokal, regional oder fachspezifisch; Scale-up), bis hin zur flächendeckenden Ausbreitung (Spread; [48]) gemeint sein. Einen erfolgreichen Implementierungsprozess kennzeichnet u. a., dass er die (unverzichtbaren) Kernelemente und -prinzipien der als wirksam evaluierten Intervention konzeptgetreu in der Praxis realisiert (intervention integrity). Demnach sollte sich die Intervention optimal in die lokalen und damit organisationsspezifischen Strukturen und Abläufe einfügen und, im besten Fall, sogar Synergieeffekte erzielen. Hierfür bedarf es systematischer Implementierungsschritte: diese können teilweise denjenigen entsprechen, die im Rahmen der Interventionsentwicklung insbesondere durch das Monitoring und die formative Evaluation identifiziert wurden [49] [50]. Zudem sind bei der Implementierungsstrategie die spezifischen Eigenschaften der jeweiligen Institution zu berücksichtigen [51]. Hierzu sollten explizite Kriterien der Angemessenheit der Implementierung formuliert werden. Diese definieren, wann (noch) von einer konzeptgetreuen Realisierung der Intervention ausgegangen werden kann. Die Kriterien und alle Maßnahmen, die der Erreichung der Kriterien dienen sollen, bilden das Gerüst eines qualitätsgesicherten Implementierungsprozesses. Zudem sollten Anforderungen an die Struktur-, Prozess-, und Ergebnisqualität der Intervention explizit und möglichst empirisch begründet, festgelegt sein. Deren Dokumentation dient dazu, die Qualität der Implementierung zu beurteilen. Eine für die Qualitätssicherung und -weiterentwicklung zuständige Projektgruppe sollte organisationsintern alle Implementierungsschritte organisieren und begleiten und so die adäquate Umsetzung in den Versorgungsalltag gewährleisten. Dies sollte in Abstimmung mit einer organisationsübergreifenden Steuerungsgruppe erfolgen, die insbesondere die konzeptgetreue Interventionsgestaltung kontrolliert. Alle Erfahrungen bezüglich fördernden und hemmenden Faktoren sowie zu Maßnahmen zur Überwindung von Implementierungsbarrieren sollten organisationsübergreifend gesammelt und zur Verbesserung der Implementierungskonzepte genutzt werden (z. B. Best-Practice-Beispiele, Entwicklung von Checklisten). Idealerweise sollte eine Implementierungstheorie formuliert werden, die eine transparente und effiziente Gestaltung in unterschiedlichen Organisationstypen unterstützt [52] [53] [54] [55]. Das RE-AIM Framework bietet ein umfassendes Rahmenmodell der qualitätsorientierten Implementierung. Es formuliert zentrale Dimensionen für die Implementierungsforschung, die in Abhängigkeit von spezifischen Anwendungskontexten begründet priorisiert und inhaltlich konkretisiert werden sollten (pragmatic approach [47] [56]): Erreichen der Zielpopulation (Reach); Effektivität und Wirksamkeit (Effectiveness/efficacy), Anwendung im Setting, der Institution und durch die Mitarbeiter (Adoption), Konsistenz und Kosten der implementierten Intervention (Intervention), langfristige Aufrechterhaltung der Interventionseffekte (Maintenance). Mit zunehmender Reichweite der Implementierung gewinnen Fragen der Standardisierung, Regulation, Interventionssicherheit und Finanzierung an Bedeutung [57] [58]. Insgesamt gilt es, die einzelnen Schritte des Forschungs- und Implementierungsprozesses nachvollziehbar und transparent zu berichten [59].

Implementierungsforschung plant, organisiert und evaluiert die Implementierung von als wirksam nachgewiesenen Interventionen. Sie ermittelt und systematisiert empirisches Wissen, wie in Abhängigkeit von spezifischen Organisations- und Kontextmerkmalen die Wirksamkeit der Intervention in verschiedenen Organisationen in der Routineversorgung gewährleistet werden kann.

Fazit

In der Versorgungsforschung sind alle interventionellen, empirischen Vorhaben unter der Perspektive der Qualität des Interventionsdesigns, der Analyse von Wirkprozessen, des Wirksamkeitsnachweises und der bestmöglichen Implementierbarkeit zu betrachten [60]. Im Interventionsdesign erfolgt die Wahl und Gestaltung der Intervention theorie- und evidenzbasiert. Die Wirksamkeits- und Wirkungsforschung prüft die empirischen Effekte auf patientenrelevante Outcomes gemäß forschungsmethodisch solider Kriterien. Die Implementierungsforschung ist als separater Studienbereich wichtig, da jede komplexe Intervention, unter Gewährleistung der Wirksamkeit, einer Anpassung an die lokalen Rahmenbedingungen bedarf. Entsprechend soll die Evidenz für den Nutzen von Interventionen in der organisationsbezogenen Versorgungsforschung gemäß der Inhalte und Anforderungen aller drei Bereiche erfolgen. Strukturen und koordinierte Prozessabläufe in und zwischen organisationalen Einheiten und Ebenen müssen in der organisationsbezogenen Versorgungsforschung besonders berücksichtigt werden. Um das Handeln Einzelner und der patientenrelevanten Versorgungsprozesse valide beschreiben zu können, bedarf es stets einer analytischen Reflexion im sozialen und organisationalen (Funktions-)Kontext.


#

Hinweis für unsere Leser: Die Langfassung der drei Kapitel des Memorandums finden Sie im Online-Archiv von „Das Gesundheitswesen“ zum freien Download.

https://doi.org/href="10.1055/a-0862-0407">10.1055/a-0862-0407

Hinweis

Dieser Artikel wurde gemäß des Erratums vom 5.2.2020 geändert.


#

Erratum

Im oben genannten Artikel ist die Zuordnung des „Interventionsdesign“ in Abbildung 1 falsch dargestellt. Richtig ist:
„Interventionsdesign“ bezieht sich nur auf Phase 1 und auf Phase 2. Die Abbildung wurde korrigiert.


#
#

Interessenkonflikt

Die Autoren geben an, dass kein Interessenkonflikt besteht.

1 Obwohl aus Gründen der besseren Lesbarkeit im Text die männliche Form gewählt wurde, beziehen sich alle Angaben auf alle Geschlechter.


  • Literatur

  • 1 Pfaff H, Albert U-S, Bornemann R. et al. Methoden für die organisationsbezogene Versorgungsforschung. Gesundheitswesen 2009; 71: 777-790
  • 2 Rossi PH, Lipsey MW, Freeman HE. Evaluation: A systematic approach. Thousand Oaks: SAGE; 2003
  • 3 Wirtz MA, Albert U-S, Bornemann R. et al. Methoden der organisationsbezogenen Versorgungsforschung. In: Pfaff H, Neugebauer E, Glaeske G. (Hrsg.) Lehrbuch Versorgungsforschung. Systematik – Methodik – Anwendung. 2. Aufl. 2017: 89-97
  • 4 Christiansen G. Evaluation – ein Instrument zur Qualitätssicherung in der Gesundheitsförderung. Köln: Bundeszentrale für Gesundheitliche Aufklärung (BZgA); 1999
  • 5 Campbell NC, Murray E, Darbyshire J. et al. Designing and evaluating complex interventions to improve health care. British Medical Journal 2007; 334: 455-459
  • 6 Craig P, Dieppe P, Macintyre S. et al. Developing and evaluating complex interventions. The new Medical Research Council guidance. British Medical Journal 2008; 337: 979-983
  • 7 Morfeld M, Wirtz M. Methodische Ansätze in der Versorgungsforschung. Das Beispiel Evaluation der Disease-Management-Programme. Bundesgesundheitsblatt, Gesundheitsforschung, Gesundheitsschutz 2006; 49: 120-129
  • 8 Geraedts M, Drösler SE, Döbler K. et al. DNVF-Memorandum III „Methoden für die Versorgungsforschung“, Teil 3. Methoden der Qualitäts- und Patientensicherheitsforschung. Gesundheitswesen 2017; 79: 883-886
  • 9 Craig P, Dieppe P, Macintyre S. et al. Developing and evaluating complex interventions. The new Medical Research Council guidance. International journal of nursing studies 2013; 50: 587-592
  • 10 Baumann W, Farin E, Menzel-Begemann A. et al. Memorandum IV. Theoretische und normative Fundierung der Versorgungsforschung. Gesundheitswesen 2016; 78: 337-352
  • 11 Colquhoun HL, Squires JE, Kolehmainen N. et al. Methods for designing interventions to change healthcare professionals’ behaviour. A systematic review. Implementation science: IS 2017; 12: 30
  • 12 Grol R, Wensing M. Effective implementation: a model. In: Grol R, Wensing M, Eccles M. (Hrsg.) Improving patient care. The implementation of change in clinical practice. Edinburgh: Elsevier Health Sciences; 2009: 41-57
  • 13 Chen HT. Theory Driven Evaluation. Thousand Oaks, California: SAGE; 1990
  • 14 Craig P, Cooper C, Gunnell D. et al. Using natural experiments to evaluate population health interventions. New Medical Research Council guidance. Journal of epidemiology and community health 2012; 66: 1182-1186
  • 15 Schrappe M, Pfaff H. Grundlegende organisationstheoretische Konzepte. In: Pfaff H, Neugebauer E, Glaeske G. (Hrsg.) Lehrbuch Versorgungsforschung. Systematik – Methodik – Anwendung. 2. Aufl Stuttgart: Schattauer GmbH; 2017: 239-250
  • 16 Rölker-Denker L, Kowalski C, Ansmann L. et al. DNVF-Memorandum III – Methoden für die Versorgungsforschung, Teil 4 – Konzept und Methoden der organisationsbezogenen Versorgungsforschung, Kapitel 2 - Methodische Ansätze der organisationsbezogenen Versorgungsforschung: Zielgrößen, Datenquellen, Datenerhebung und Datenanalyse. Gesundheitswesen 2019; DOI: 10.1055/a-0862-0565.
  • 17 Moore GF, Audrey S, Barker M. et al. Process evaluation of complex interventions. Medical Research Council guidance. BMJ (Clinical research ed.) 2015; 350: h1258
  • 18 Bartholomew LK, Parcel GS, Kok G. Intervention mapping. A process for developing theory- and evidence-based health education programs. Health education & behavior: the official publication of the Society for Public Health Education 1998; 25: 545-563
  • 19 French SD, Green SE, O’Connor DA. et al. Developing theory-informed behaviour change interventions to implement evidence into practice. A systematic approach using the Theoretical Domains Framework. Implementation science: IS 2012; 7: 38
  • 20 Davidoff F, Dixon-Woods M, Leviton L. et al. Demystifying theory and its use in improvement. BMJ quality & safety 2015; 24: 228-238
  • 21 De Silva MJ, Breuer E, Lee L. et al. Theory of Change: a theory-driven approach to enhance the Medical Research Council’s framework for complex interventions. Trials 2014; 15: 267
  • 22 Kellog WK. Foundation (Hg.): Logic Model Development Guide. 2004 Online: https://www.wkkf.org/resource-directory/resource/2006/02/wk-kellogg-foundation-logic-model-development-guide
  • 23 Hoffmann TC, Glasziou PP, Boutron I. et al. Better reporting of interventions: template for intervention description and replication (TIDieR) checklist and guide. BMJ 2014; 348: g1687
  • 24 Schreyögg G. Organisation. Grundlagen moderner Organisationsgestaltung; mit Fallstudien. 5. Aufl. Wiesbaden: Gabler; 2008
  • 25 Bensing JM, Caris-Verhallen WM, Dekker J. et al. Doing the right thing and doing it right: toward a framework for assessing the policy relevance of health services research. International Journal of Technology Assessment in Health Care 2003; 19: 604-612
  • 26 Raine R, Fitzpatrick R, Barratt H. et al. Challenges, solutions and future directions in the evaluation of service innovations in health care and public health. Southampton (UK): 2016
  • 27 Lancaster GA, Dodd S, Williamson PR. Design and analysis of pilot studies. Recommendations for good practice. Journal of Evaluation in Clinical Practice 2004; 10: 307-312
  • 28 Chalmers I, Glasziou P. Avoidable waste in the production and reporting of research evidence. Obstetrics and gynecology 2009; 114: 1341-1345
  • 29 Arain M, Campbell MJ, Cooper CL. et al. What is a pilot or feasibility study? A review of current practice and editorial policy. BMC medical research methodology 2010; 10: 67
  • 30 Roger E. Diffusion of Innovations. 5. Aufl. New York: Free Press; 2003
  • 31 Weiner BJ. A theory of organizational readiness for change. Implementation science: IS 2009; 4: 67
  • 32 Rütten A, Röger U, Abu-Omar K. et al. Assessment of organizational readiness for health promotion policy implementation: test of a theoretical model. Health promotion international 2009; 24: 243-251
  • 33 Muth C, Harder S, Uhlmann L. et al. Pilot study to test the feasibility of a trial design and complex intervention on PRIoritising MUltimedication in Multimorbidity in general practices (PRIMUMpilot). BMJ open 2016; 6: e011613
  • 34 Pohontsch N, Meyer T. Das kognitive Interview – Ein Instrument zur Entwicklung und Validierung von Erhebungsinstrumenten. Die Rehabilitation 2015; 54: 53-59
  • 35 Karbach U, Stamer M, Holmberg C. et al. Qualitative Studien in der Versorgungsforschung – Diskussionspapier, Teil 2. Stand qualitativer Versorgungsforschung in Deutschland – ein exemplarischer Überblick. Gesundheitswesen. Das Gesundheitswesen 2012; 08/09: 516-525
  • 36 Wirtz MA, Strohmer J. Anwendung und Integration qualitativer und quantitativer Forschungsmethoden in der rehabilitationswissenschaftlichen Interventionsforschung. Die Rehabilitation 2016; 55: 191-199
  • 37 Shanyinde M, Pickering RM, Weatherall M. Questions asked and answered in pilot and feasibility randomized controlled trials. BMC medical research methodology 2011; 11: 117
  • 38 Ansmann L, Kuhr K, Kowalski C. Mehrebenenanalysen in der organisationsbezogenen Versorgungsforschung – Nutzen, Voraussetzungen und Durchführung. Das Gesundheitswesen 2016; 79: 203-209
  • 39 Campbell MJ, Donner A, Klar N. Developments in cluster randomized trials and statistics in medicine. Statistics in medicine 2007; 26: 2-19
  • 40 Kunz R, Ollenschläger G, Raspe H. et al. Lehrbuch evidenzbasierte Medizin in Klinik und Praxis. 2. Aufl. Köln: Deutscher Ärzte Verlag; 2007
  • 41 Shadish WR, Cook TD, Campbell DT. Experimental and quasi-experimental designs for generalized causal inference. Boston, New York: Houghton Mifflin; 2002
  • 42 Braithwaite J, Churruca K, Long JC. et al. When complexity science meets implementation science: a theoretical and empirical analysis of systems change. BMC medicine 2018; 16: 63
  • 43 Greenhalgh T, Papoutsi C. Studying complexity in health services research: desperately seeking an overdue paradigm shift. BMC medicine 2018; 16: 95
  • 44 Oakley A, Strange V, Bonell C. et al. Process evaluation in randomised controlled trials of complex interventions. BMJ (Clinical research ed.) 2006; 332: 413-416
  • 45 Ansmann L, Baumann W, Gostomzyk J. et al. DNVF-Memorandum III – Methoden für die Versorgungsforschung, Teil 4 – Konzept und Methoden der organisationsbezogenen Versorgungsforschung, Kapitel 1 – Definition und Konzept der organisationsbezogenen Versorgungsforschung. Gesundheitswesen 2019; DOI: 10.1055/a-0862-0527.
  • 46 Damschroder LJ, Aron DC, Keith RE. et al. Fostering implementation of health services research findings into practice. A consolidated framework for advancing implementation science. Implementation science: IS 2009; 4: 50
  • 47 Harden SM, Smith ML, Ory MG. et al. RE-AIM in Clinical, Community, and Corporate Settings: Perspectives, Strategies, and Recommendations to Enhance Public Health Impact. Frontiers in public health 2018; 6: 71
  • 48 Greenhalgh T. How to Implement Evidence-Based Healthcare. New York: John Wiley & Sons Inc; 2017
  • 49 Abraham C, Michie S. A taxonomy of behavior change techniques used in interventions. Health psychology: official journal of the Division of Health Psychology, American Psychological Association 2008; 27: 379-387
  • 50 Atkins L, Francis J, Islam R. et al. A guide to using the Theoretical Domains Framework of behaviour change to investigate implementation problems. Implementation science: IS 2017; 12: 77
  • 51 Vollmar HC, Santos S, Jong de A. et al. Wie gelangt Wissen in die Versorgung? Implementierungsforschung und Wissenszirkulation. Bundesgesundheitsblatt, Gesundheitsforschung, Gesundheitsschutz 2017; 60
  • 52 Albert U-S, Koller M, Lorenz W. et al. Implementierung und Evaluation von Leitlinien auf nationaler Ebene: Entwicklung eines Konzeptes für die “Stufe-3-Leitlinie Brustkrebs-Früherkennung in Deutschland”. Zeitschrift fur Evidenz, Fortbildung und Qualitat im Gesundheitswesen 2004; 98: 347-359
  • 53 Glasziou P, Meats E, Heneghan C. et al. What is missing from descriptions of treatment in trials and reviews?. BMJ (Clinical research ed.) 2008; 336: 1472-1474
  • 54 May C, Finch T, Mair F. et al. Understanding the implementation of complex interventions in health care. The normalization process model. BMC health services research 2007; 7: 148
  • 55 Pfadenhauer LM, Gerhardus A, Mozygemba K. et al. Making sense of complexity in context and implementation. The Context and Implementation of Complex Interventions (CICI) framework. Implementation science: IS 2017; 12: 21
  • 56 Harden SM, Gaglio B, Shoup JA. et al. Fidelity to and comparative results across behavioral interventions evaluated through the RE-AIM framework: a systematic review. Systematic Reviews 2015; 4
  • 57 van Dyk L. A review of telehealth service implementation frameworks. International journal of environmental research and public health 2014; 11: 1279-1298
  • 58 Klesges LM, Estabrooks PA, Dzewaltowski DA. et al. Beginning with the application in mind: designing and planning health behavior change interventions to enhance dissemination. Annals of behavioral medicine: a publication of the Society of Behavioral Medicine 2005; 29 Suppl 66-75
  • 59 Pinnock H, Barwick M, Carpenter CR. et al. Standards for Reporting Implementation Studies (StaRI) Statement. BMJ (Clinical research ed.) 2017; 356: i6795
  • 60 Blettner M, Dierks M-L, Donner-Banzhoff N. et al. Überlegungen des Expertenbeirats zu Anträgen im Rahmen des Innovationsfonds. Zeitschrift fur Evidenz, Fortbildung und Qualitat im Gesundheitswesen 2018; 130: 42-48

Korrespondenzadresse

Prof. Lena Ansmann
Department für Versorgungsforschung
Abteilung Organisationsbezogene Versorgungsforschung
Carl von Ossietzky Universitat Oldenburg
Ammerländer Heerstraße 140
26129 Oldenburg

  • Literatur

  • 1 Pfaff H, Albert U-S, Bornemann R. et al. Methoden für die organisationsbezogene Versorgungsforschung. Gesundheitswesen 2009; 71: 777-790
  • 2 Rossi PH, Lipsey MW, Freeman HE. Evaluation: A systematic approach. Thousand Oaks: SAGE; 2003
  • 3 Wirtz MA, Albert U-S, Bornemann R. et al. Methoden der organisationsbezogenen Versorgungsforschung. In: Pfaff H, Neugebauer E, Glaeske G. (Hrsg.) Lehrbuch Versorgungsforschung. Systematik – Methodik – Anwendung. 2. Aufl. 2017: 89-97
  • 4 Christiansen G. Evaluation – ein Instrument zur Qualitätssicherung in der Gesundheitsförderung. Köln: Bundeszentrale für Gesundheitliche Aufklärung (BZgA); 1999
  • 5 Campbell NC, Murray E, Darbyshire J. et al. Designing and evaluating complex interventions to improve health care. British Medical Journal 2007; 334: 455-459
  • 6 Craig P, Dieppe P, Macintyre S. et al. Developing and evaluating complex interventions. The new Medical Research Council guidance. British Medical Journal 2008; 337: 979-983
  • 7 Morfeld M, Wirtz M. Methodische Ansätze in der Versorgungsforschung. Das Beispiel Evaluation der Disease-Management-Programme. Bundesgesundheitsblatt, Gesundheitsforschung, Gesundheitsschutz 2006; 49: 120-129
  • 8 Geraedts M, Drösler SE, Döbler K. et al. DNVF-Memorandum III „Methoden für die Versorgungsforschung“, Teil 3. Methoden der Qualitäts- und Patientensicherheitsforschung. Gesundheitswesen 2017; 79: 883-886
  • 9 Craig P, Dieppe P, Macintyre S. et al. Developing and evaluating complex interventions. The new Medical Research Council guidance. International journal of nursing studies 2013; 50: 587-592
  • 10 Baumann W, Farin E, Menzel-Begemann A. et al. Memorandum IV. Theoretische und normative Fundierung der Versorgungsforschung. Gesundheitswesen 2016; 78: 337-352
  • 11 Colquhoun HL, Squires JE, Kolehmainen N. et al. Methods for designing interventions to change healthcare professionals’ behaviour. A systematic review. Implementation science: IS 2017; 12: 30
  • 12 Grol R, Wensing M. Effective implementation: a model. In: Grol R, Wensing M, Eccles M. (Hrsg.) Improving patient care. The implementation of change in clinical practice. Edinburgh: Elsevier Health Sciences; 2009: 41-57
  • 13 Chen HT. Theory Driven Evaluation. Thousand Oaks, California: SAGE; 1990
  • 14 Craig P, Cooper C, Gunnell D. et al. Using natural experiments to evaluate population health interventions. New Medical Research Council guidance. Journal of epidemiology and community health 2012; 66: 1182-1186
  • 15 Schrappe M, Pfaff H. Grundlegende organisationstheoretische Konzepte. In: Pfaff H, Neugebauer E, Glaeske G. (Hrsg.) Lehrbuch Versorgungsforschung. Systematik – Methodik – Anwendung. 2. Aufl Stuttgart: Schattauer GmbH; 2017: 239-250
  • 16 Rölker-Denker L, Kowalski C, Ansmann L. et al. DNVF-Memorandum III – Methoden für die Versorgungsforschung, Teil 4 – Konzept und Methoden der organisationsbezogenen Versorgungsforschung, Kapitel 2 - Methodische Ansätze der organisationsbezogenen Versorgungsforschung: Zielgrößen, Datenquellen, Datenerhebung und Datenanalyse. Gesundheitswesen 2019; DOI: 10.1055/a-0862-0565.
  • 17 Moore GF, Audrey S, Barker M. et al. Process evaluation of complex interventions. Medical Research Council guidance. BMJ (Clinical research ed.) 2015; 350: h1258
  • 18 Bartholomew LK, Parcel GS, Kok G. Intervention mapping. A process for developing theory- and evidence-based health education programs. Health education & behavior: the official publication of the Society for Public Health Education 1998; 25: 545-563
  • 19 French SD, Green SE, O’Connor DA. et al. Developing theory-informed behaviour change interventions to implement evidence into practice. A systematic approach using the Theoretical Domains Framework. Implementation science: IS 2012; 7: 38
  • 20 Davidoff F, Dixon-Woods M, Leviton L. et al. Demystifying theory and its use in improvement. BMJ quality & safety 2015; 24: 228-238
  • 21 De Silva MJ, Breuer E, Lee L. et al. Theory of Change: a theory-driven approach to enhance the Medical Research Council’s framework for complex interventions. Trials 2014; 15: 267
  • 22 Kellog WK. Foundation (Hg.): Logic Model Development Guide. 2004 Online: https://www.wkkf.org/resource-directory/resource/2006/02/wk-kellogg-foundation-logic-model-development-guide
  • 23 Hoffmann TC, Glasziou PP, Boutron I. et al. Better reporting of interventions: template for intervention description and replication (TIDieR) checklist and guide. BMJ 2014; 348: g1687
  • 24 Schreyögg G. Organisation. Grundlagen moderner Organisationsgestaltung; mit Fallstudien. 5. Aufl. Wiesbaden: Gabler; 2008
  • 25 Bensing JM, Caris-Verhallen WM, Dekker J. et al. Doing the right thing and doing it right: toward a framework for assessing the policy relevance of health services research. International Journal of Technology Assessment in Health Care 2003; 19: 604-612
  • 26 Raine R, Fitzpatrick R, Barratt H. et al. Challenges, solutions and future directions in the evaluation of service innovations in health care and public health. Southampton (UK): 2016
  • 27 Lancaster GA, Dodd S, Williamson PR. Design and analysis of pilot studies. Recommendations for good practice. Journal of Evaluation in Clinical Practice 2004; 10: 307-312
  • 28 Chalmers I, Glasziou P. Avoidable waste in the production and reporting of research evidence. Obstetrics and gynecology 2009; 114: 1341-1345
  • 29 Arain M, Campbell MJ, Cooper CL. et al. What is a pilot or feasibility study? A review of current practice and editorial policy. BMC medical research methodology 2010; 10: 67
  • 30 Roger E. Diffusion of Innovations. 5. Aufl. New York: Free Press; 2003
  • 31 Weiner BJ. A theory of organizational readiness for change. Implementation science: IS 2009; 4: 67
  • 32 Rütten A, Röger U, Abu-Omar K. et al. Assessment of organizational readiness for health promotion policy implementation: test of a theoretical model. Health promotion international 2009; 24: 243-251
  • 33 Muth C, Harder S, Uhlmann L. et al. Pilot study to test the feasibility of a trial design and complex intervention on PRIoritising MUltimedication in Multimorbidity in general practices (PRIMUMpilot). BMJ open 2016; 6: e011613
  • 34 Pohontsch N, Meyer T. Das kognitive Interview – Ein Instrument zur Entwicklung und Validierung von Erhebungsinstrumenten. Die Rehabilitation 2015; 54: 53-59
  • 35 Karbach U, Stamer M, Holmberg C. et al. Qualitative Studien in der Versorgungsforschung – Diskussionspapier, Teil 2. Stand qualitativer Versorgungsforschung in Deutschland – ein exemplarischer Überblick. Gesundheitswesen. Das Gesundheitswesen 2012; 08/09: 516-525
  • 36 Wirtz MA, Strohmer J. Anwendung und Integration qualitativer und quantitativer Forschungsmethoden in der rehabilitationswissenschaftlichen Interventionsforschung. Die Rehabilitation 2016; 55: 191-199
  • 37 Shanyinde M, Pickering RM, Weatherall M. Questions asked and answered in pilot and feasibility randomized controlled trials. BMC medical research methodology 2011; 11: 117
  • 38 Ansmann L, Kuhr K, Kowalski C. Mehrebenenanalysen in der organisationsbezogenen Versorgungsforschung – Nutzen, Voraussetzungen und Durchführung. Das Gesundheitswesen 2016; 79: 203-209
  • 39 Campbell MJ, Donner A, Klar N. Developments in cluster randomized trials and statistics in medicine. Statistics in medicine 2007; 26: 2-19
  • 40 Kunz R, Ollenschläger G, Raspe H. et al. Lehrbuch evidenzbasierte Medizin in Klinik und Praxis. 2. Aufl. Köln: Deutscher Ärzte Verlag; 2007
  • 41 Shadish WR, Cook TD, Campbell DT. Experimental and quasi-experimental designs for generalized causal inference. Boston, New York: Houghton Mifflin; 2002
  • 42 Braithwaite J, Churruca K, Long JC. et al. When complexity science meets implementation science: a theoretical and empirical analysis of systems change. BMC medicine 2018; 16: 63
  • 43 Greenhalgh T, Papoutsi C. Studying complexity in health services research: desperately seeking an overdue paradigm shift. BMC medicine 2018; 16: 95
  • 44 Oakley A, Strange V, Bonell C. et al. Process evaluation in randomised controlled trials of complex interventions. BMJ (Clinical research ed.) 2006; 332: 413-416
  • 45 Ansmann L, Baumann W, Gostomzyk J. et al. DNVF-Memorandum III – Methoden für die Versorgungsforschung, Teil 4 – Konzept und Methoden der organisationsbezogenen Versorgungsforschung, Kapitel 1 – Definition und Konzept der organisationsbezogenen Versorgungsforschung. Gesundheitswesen 2019; DOI: 10.1055/a-0862-0527.
  • 46 Damschroder LJ, Aron DC, Keith RE. et al. Fostering implementation of health services research findings into practice. A consolidated framework for advancing implementation science. Implementation science: IS 2009; 4: 50
  • 47 Harden SM, Smith ML, Ory MG. et al. RE-AIM in Clinical, Community, and Corporate Settings: Perspectives, Strategies, and Recommendations to Enhance Public Health Impact. Frontiers in public health 2018; 6: 71
  • 48 Greenhalgh T. How to Implement Evidence-Based Healthcare. New York: John Wiley & Sons Inc; 2017
  • 49 Abraham C, Michie S. A taxonomy of behavior change techniques used in interventions. Health psychology: official journal of the Division of Health Psychology, American Psychological Association 2008; 27: 379-387
  • 50 Atkins L, Francis J, Islam R. et al. A guide to using the Theoretical Domains Framework of behaviour change to investigate implementation problems. Implementation science: IS 2017; 12: 77
  • 51 Vollmar HC, Santos S, Jong de A. et al. Wie gelangt Wissen in die Versorgung? Implementierungsforschung und Wissenszirkulation. Bundesgesundheitsblatt, Gesundheitsforschung, Gesundheitsschutz 2017; 60
  • 52 Albert U-S, Koller M, Lorenz W. et al. Implementierung und Evaluation von Leitlinien auf nationaler Ebene: Entwicklung eines Konzeptes für die “Stufe-3-Leitlinie Brustkrebs-Früherkennung in Deutschland”. Zeitschrift fur Evidenz, Fortbildung und Qualitat im Gesundheitswesen 2004; 98: 347-359
  • 53 Glasziou P, Meats E, Heneghan C. et al. What is missing from descriptions of treatment in trials and reviews?. BMJ (Clinical research ed.) 2008; 336: 1472-1474
  • 54 May C, Finch T, Mair F. et al. Understanding the implementation of complex interventions in health care. The normalization process model. BMC health services research 2007; 7: 148
  • 55 Pfadenhauer LM, Gerhardus A, Mozygemba K. et al. Making sense of complexity in context and implementation. The Context and Implementation of Complex Interventions (CICI) framework. Implementation science: IS 2017; 12: 21
  • 56 Harden SM, Gaglio B, Shoup JA. et al. Fidelity to and comparative results across behavioral interventions evaluated through the RE-AIM framework: a systematic review. Systematic Reviews 2015; 4
  • 57 van Dyk L. A review of telehealth service implementation frameworks. International journal of environmental research and public health 2014; 11: 1279-1298
  • 58 Klesges LM, Estabrooks PA, Dzewaltowski DA. et al. Beginning with the application in mind: designing and planning health behavior change interventions to enhance dissemination. Annals of behavioral medicine: a publication of the Society of Behavioral Medicine 2005; 29 Suppl 66-75
  • 59 Pinnock H, Barwick M, Carpenter CR. et al. Standards for Reporting Implementation Studies (StaRI) Statement. BMJ (Clinical research ed.) 2017; 356: i6795
  • 60 Blettner M, Dierks M-L, Donner-Banzhoff N. et al. Überlegungen des Expertenbeirats zu Anträgen im Rahmen des Innovationsfonds. Zeitschrift fur Evidenz, Fortbildung und Qualitat im Gesundheitswesen 2018; 130: 42-48

Zoom Image
Abb. 1 Schwerpunkte der organisationsbezogenen Versorgungsforschung orientiert am Modell der Evaluation komplexer Interventionen nach [6].