Ein weiteres Beispiel ist, dass bei der Verwendung algorithmischer Entscheidungsfindung in der klinischen Medizin die Rasse eines Patienten häufig in eine Reihe von diagnostischen Prädiktoren aufgenommen wird, die Behandlungsempfehlungen bestimmen. Neuere Studien haben jedoch gezeigt, dass z Algorithmen können verlangen, dass schwarze Patienten kränker sind als weiße Patienten vor der Behandlung empfohlen.
Da eine Explosion neuer Daten und Analysemethoden unsere sozialen Praktiken und die Entscheidungen, die wir als Einzelpersonen, Gruppen und Organisationen treffen, grundlegend verändert, müssen wir uns noch vollständig damit abfinden, wie Daten unsere Gesellschaft und die daraus resultierenden Auswirkungen geformt haben über gesundheitliche Chancengleichheit – wie in einem neuen ans Licht gebracht Bericht* von der University of Chicago Crown Relatives University of Social Work, Policy and Follow, entwickelt mit Unterstützung der Robert Wood Johnson Basis.
Sicherstellen, dass Daten auf eine Weise verwendet werden, die unsere Werte unterstützt
Wenn unsere Gesellschaft und insbesondere unsere Entscheidungsträger Daten und Analysen als objektiv betrachten, machen wir uns blind für die gesellschaftlichen und politischen Entscheidungen, Kosten und Vorteile der Nutzung von Daten. Das bedeutet nicht, dass wir Daten aufgeben oder misstrauen. Es bedeutet, dass wir die Daten, die wir verwenden, kritisch betrachten, uns ihrer Grenzen bewusst sein und bewusst darauf achten müssen, wie wir Daten auf eine Weise auswerten, die unseren Werten entspricht und unseren Zielen dient, die Gesellschaft zu verbessern.
Die gute Nachricht ist, dass es Möglichkeiten gibt, Vorurteile, Machtungleichgewichte und Datenlücken sowie potenzielle Datenschutzprobleme zu berücksichtigen. Dies kann uns helfen, bessere Entscheidungen für Gesundheit und Gerechtigkeit zu treffen. Einige Lösungen für Personen, die Daten entwickeln und analysieren, sowie für politische Entscheidungsträger und Organisationsleiter, die Entscheidungen auf der Grundlage von Daten treffen, umfassen Folgendes:
Balancieren Sie die Nutzung von Daten mit individueller Freiheit und Gerechtigkeit. und Datenschutz: Seien Sie sich bewusst und richten Sie Mechanismen ein, um die Art und Weise anzugehen, wie neue Daten und Analysemethoden, die von Unternehmen, Regierungen und anderen Organisationen verwendet werden, die Grenze zwischen den Bemühungen dieser Akteure, die Entscheidungen und Möglichkeiten, denen wir gegenüberstehen, zu gestalten, und dem Wunsch des Einzelnen nach Gerechtigkeit und Freiheit verschieben , und Privatsphäre. Wir bezeichnen die Explosion von Daten in allen Bereichen der Gesellschaft als „Datafizierung“ – die Wiedergabe rapid aller Transaktionen, Bilder und Aktivitäten in digitale Repräsentationen, die durch Computerprozesse gespeichert, manipuliert und analysiert werden können. Das rasante Tempo, in dem die Datafizierung stattfindet, sorgt praktisch dafür, dass die Regulierung unweigerlich hinter Praxis und Innovation zurückbleibt. Dies verschärft die Notwendigkeit einer robusten Auseinandersetzung mit Ethik, insbesondere in Bezug auf Datenschutz, Transparenz der algorithmischen Entscheidungsfindung, um Rechenschaftspflicht zu gewährleisten, und Fairness, um sicherzustellen, dass datengesteuerte Entscheidungsfindung bestimmte Gruppen nicht systematisch benachteiligt.
Die bisher weitreichendste Datenschutzbemühung, die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union (EU), wurde 2018 erlassen, um die Erhebung von Daten über EU-Bürger einzuschränken. Die DSGVO bekräftigt das Recht der EU-Bürger auf digitale Privatsphäre und verlangt gesetzlich, dass Daten nur für bestimmte Zwecke und so wenig wie möglich für diese Zwecke erhoben werden. Es stellt den ersten großen Schritt eines öffentlichen Leitungsorgans dar, um eine Technologie zu regulieren, die sich schneller entwickelt als die einschlägigen Gesetze und Regulierungssysteme.
In Daten eingebettete menschliche Werte und Entscheidungen verstehen: Seien Sie sich bewusst, wie menschliche Werte und Entscheidungen die Entstehung und Verwendung von Datenmethoden und Datenanalysen vorantreiben. Obwohl Daten neutral, objektiv und wissenschaftlich erscheinen mögen, achten Sie darauf, wie sich menschliche Entscheidungen und Vorurteile – insbesondere Rassismus – einschleichen können.
Beispielsweise kann der Austausch und die Integration von Daten über Organisationen und Sektoren hinweg lokalen Führungskräften helfen, die Bedürfnisse der Gemeinschaft besser zu verstehen, Dienstleistungen zu verbessern und stärkere Gemeinschaften aufzubauen. Wenn Daten jedoch auf diese Weise geteilt und aggregiert wurden, haben sie in der Praxis allzu oft die Hinterlassenschaften rassistischer Politik und ungerechter Ergebnisse verstärkt. Dies wirft grundlegende Bedenken auf, da Verwaltungsdaten zunehmend als Enter für die Politik, die Ressourcenzuweisung und programmatische Entscheidungen verwendet werden. Um diesen schädlichen Auswirkungen entgegenzuwirken, wurde das Programm Actionable Intelligence for Social Coverage (AISP) an der University of Pennsylvania ins Leben gerufen Ein Toolkit zur Zentrierung der Rassengleichheit während der gesamten Datenintegration Benutzer dabei zu unterstützen, Daten branchen- und systemübergreifend auf neue Weise zusammenzuführen. AISP zielt darauf ab, „eine neue Art von Dateninfrastruktur zu schaffen – eine, die ‚Rückkopplungsschleifen der Ungerechtigkeit‘ abbaut und stattdessen Macht und Wissen mit denen teilt, die Systemänderungen am dringendsten brauchen.“
Daten kontextualisieren: Daten und Analysen können prägen, was Menschen als wichtig, selbstverständlich oder wahr ansehen. Bieten Sie Kontext für Daten, damit sie als Hilfsmittel für die Entscheidungsfindung verwendet werden, anstatt Daten als Wahrheit darzustellen.
Einige Datenbemühungen drehen die Vorstellungen darüber um, wer Daten definieren, sammeln und aus ihnen Bedeutung gewinnen sollte, um mehr Gerechtigkeit in die Art und Weise zu bringen, wie politische Entscheidungsträger und Unternehmensleiter Entscheidungen unter Verwendung dieser Daten treffen. Local community Sounds Lab, das an der Brown University School of General public Wellbeing angesiedelt ist, arbeitet daran, Umweltbelastungen zu bewerten, die Lärm, Luft- und Wasserverschmutzung verursachen, indem es direkt mit Gemeindemitgliedern zusammenarbeitet, um Belastungen und Auswirkungen auf die Umweltgerechtigkeit zu bewerten und zu verstehen. Das Labor hat die Beziehung zwischen Lärm und Gesundheit in der Gemeinde untersucht, indem es direkt mit Gemeinden zusammengearbeitet hat, um ihre spezifischen Lärmprobleme zu unterstützen, indem es eine Echtzeitüberwachung verwendet, bei der die Bewohner Fälle von Lärmbelästigung mithilfe einer Application verfolgen können. Ihre Arbeit bewertet nicht nur, wie Schall sich auf die Gesundheit der Gemeinschaft auswirkt, sondern auch, wie er gemessen, reguliert und gemeldet wird, und stellt traditionelle Normen in Frage, wer Daten erstellen und aus diesen Daten Bedeutung gewinnen darf. Das Projekt untersucht die potenziell weitreichenden Probleme der Expositions-Fehlklassifizierung und Gerechtigkeit in traditionellen Umweltgesundheitsstudien, um Ungerechtigkeiten besser zu verstehen und auf gemeinschaftszentrierte Weise anzugehen, und die jüngsten Bemühungen haben sich ausgeweitet, um die Qualität des Trinkwassers und andere Infrastrukturherausforderungen zu betrachten. basierend auf den Prioritäten der Bewohner, um die Vorstellungen darüber, wer entscheiden darf, welche Fragen mit Daten beantwortet werden, weiter in Frage zu stellen.
Datengestützte Entscheidungsfindung richtig gemacht
Im Zeitalter der „datengesteuerten Entscheidungsfindung“ ist es wichtiger denn je, die Vorstellung zu hinterfragen, dass Daten von Natur aus objektiv und unvoreingenommen sind. Dies Bericht hilft zu entschlüsseln, wie Forscher, Anwohner und politische Entscheidungsträger aus Daten einen Sinn machen können, und zwar auf eine Weise, die unseren Werten entspricht und unseren Zielen zur Verbesserung der Gesellschaft dient. Sehen Sie sich die übrigen vorgestellten Lösungen im Bericht an, um Ideen zu erhalten, wie Sie bei der Arbeit mit Daten bewusster Vorurteile, Machtungleichgewichte, Datenlücken und Datenschutzprobleme berücksichtigen können, um bessere datengestützte Entscheidungen für Gesundheit und Gerechtigkeit zu treffen .
*Der Bericht wurde von Nicole Marwell von der Crown College der University of Chicago und Cameron Working day, einem Doktoranden am Section of Sociology der College of Chicago, verfasst, die die Dringlichkeit dieses Problems erläutern: „Wenn wir Daten und Analysen weiterhin als wertvoll ansehen -frei und objektiv, verschließen wir uns gegenüber der Artwork und Weise, wie diese Technologie soziale und politische Entscheidungen, Kosten und Vorteile mit sich bringt.“
More Stories
Schokoladen-Granola | Ernährungsberater Debbie Gerichte
Planungstaktiken für Familienmenüs mit Laura Fuentes
Geröstete Tomaten-Pfeffer-Suppe – Fraiche Living