Themen für Bachelorarbeiten
Übersicht der Bachelorarbeitsthemen dieser Professur
Durch Klick auf die einzelnen Themen werden die Detail-Informationen angezeigt.
- Themenvergabe durch Präsenztermin
Betreuungsperson der Bachelorarbeit: Prof. Dr. C. StroblFür die Vergabe der Bachelorarbeitsthemen FS26: schreiben Sie bitte eine Email mit den gewünschten BA-Themen (Priorität 1-3),
bis 23.02.26 an methoden@psychologie.uzh.ch.
offen:
Unachtsames Antworten in psychologischen Fragebögen (Careless responding in psychological questionnaires)
Beschreibung: Fragebögen sind ein essenzielles Werkzeug für die empirische Forschung in der Psychologie. Es kann jedoch passieren, dass manche Studienteilnehmenden nicht immer achtsam auf Fragen antworten, beispielsweise weil sie sich die Fragen nicht gründlich durchlesen, sie nicht ausreichend verstehen, oder nicht ausreichend über sie nachdenken. Dieses Phänomen ist in der Literatur bekannt als «careless responding» oder «inattentive responding» (Deutsch: unachtsames Antworten). Unachtsames Antworten stellt ein wichtiges empirisches Problem dar, da bereits ein paar wenige solcher Antworten Studienergebnisse verfälschen können. Es ist daher wichtig, unachtsame Studienteilnehmende zu identifizieren und/oder deren Antwortverhalten statistisch zu modellieren, um eine Verfälschung der Studienergebnisse zu verhindern. In dieser Bachelorarbeit fassen Studierende den aktuellen Stand der Literatur zu unachtsamem Antworten sowie vorgeschlagene Lösungsansätzen zusammen.
Bachelor theses on this topic can also be written in English.
Referenzen:
Ward, M. K., & Meade, A. W. (2023). Dealing with careless responding in survey data: Prevention, identification, and recommended best practices. Annual Review of Psychology, 74(1), 577-596. (https://doi.org/10.1146/annurev-psych-040422-045007)
Meade, A. W., & Craig, S. B. (2012). Identifying careless responses in survey data. Psychological Methods, 17(3), 437?455. (https://psycnet.apa.org/doi/10.1037/a0028085)
Kontakt: Max Welz, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 27.11.2025)Ausreisser in der linearen Regressionsanalyse (Outliers in linear regression)
Beschreibung: Die lineare Regression beschreibt, wie eine oder mehrere Variablen (z.B. Alter, Bildungsstand) eine abhängige Variable (z.B. Zufriedenheit im Beruf) beeinflussen. Neben direkten Anwendungen der linearen Regression bildet sie auch die Grundlage für fortgeschrittene statistische Verfahren wieStrukturgleichungsmodelle oder Mediationsanalysen. Allerdings ist die lineare Regression sehr anfällig für Abweichungen von Modellierungsannahmen. Man kann beispielsweise zeigen, dass eine einzige Beobachtung mit extremen Werten (sogenannte Ausreisser) genügt, um die Validität der Ergebnisse einer Regressionsanalyse zu zerstören. In dieser Bachelorarbeit fassen Studierende die Literatur zu den folgenden sich ergebenden Fragestellungen zusammen. 1. Wie sind Ausreisser definiert und wie kann man sie erkennen? 2. Wie geht man mit Ausreissern um? 3. Was für ausreisserrobuste Alternativen zur klassischen linearen Regression gibt es?
Bachelor theses on this topic can also be written in English.
Referenzen:
Aguinis, H., Gottfredson, R. K., & Joo, H. (2013). Best-practice recommendations for defining, identifying, and handling outliers. Organizational Research Methods, 16(2), 270-301. (https://doi.org/10.1177/1094428112470848)
Alfons, A., Ate?, N. Y., & Groenen, P. J. F. (2022). A Robust Bootstrap Test for Mediation Analysis. Organizational Research Methods, 25(3), 591-617. (https://doi.org/10.1177/1094428121999096)
Kontakt: Max Welz, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 27.11.2025)Sample size planning in psychology
Beschreibung: An important step when designing an empirical study is to justify the sample size that will be collected. The key aim of a sample size justification for such studies is to explain how the collected data is expected to provide valuable information given the inferential goals of the researcher. The goal of this thesis is to describe and discuss some aspects for sample size justification, for example
1) collecting data from (almost) the entire population,
2) choosing a sample size based on resource constraints,
3) performing an a-priori power analysis,
4) planning for a desired accuracy,
5) using heuristics, or
6) explicitly acknowledging the absence of a justification.
References:
Daniel Lakens, (2022), Sample size justification, Collabra: Psychology, 8(1), https://doi.org/10.1525/collabra.33267
Russell V. Lenth, (2001), Some Practical Guidelines for Effective Sample Size Determination, The American Statistician, 55(3), 187-193, https://doi.org/10.1198/000313001317098149
Scott E. Maxwell, Ken Kelley, Joseph R. Rausch, (2008), Sample Size Planning for Statistical Power and Accuracy in Parameter Estimation, Annual Review of Psychology, 59: 537-563, https://doi.org/10.1146/annurev.psych.59.103006.093735
Kontakt: Thomas Welchowski, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 25.11.2025)Comparison of classical test and item response theory
Beschreibung: Classical test theory (CTT) is based on the assumption that a single underlying dimension (a trait or skill) is being measured, and that every person has a single true score, T, on that dimension. The important consideration is that all items on the test are measuring this skill or trait, and that the skill or trait is well defined. Each person's observed test score is assumed to be determined by his or her true score plus some error of measurement, which would either raise or lower the observed score relative to the person's true score.
The item response theory (IRT), also known as the latent response theory refers to a family of mathematical models that attempt to explain the relationship between latent traits (unobservable characteristic or attribute) and their manifestations (i.e. observed outcomes, responses or performance). IRT examines items individually to assess their ability to measure the trait. In classical test theory test items are not examined individually and reliability and measurement error are not directly related.
The goal of this thesis is to describe classical test and item response theory in some central aspects and compare them to each other.
References:
Robert F. DeVellis, (2006), Classical Test Theory, Medical Care, Volume 44, Number 11, Suppl 3, https://doi.org/10.1097/01.mlr.0000245426.10853.30
Steven P. Reise, Niels G. Waller, (2009), Item Response Theory and Clinical Measurement, Annual Review of Clinical Psychology, 5:27?48, https://doi.org/10.1146/annurev.clinpsy.032408.153553
Tenko Raykov, George A. Marcoulides, (2015), On the Relationship Between Classical Test Theory and Item Response Theory: From One to the Other and Back, Educational and Psychological Measurement, 1-14, https://doi.org/10.1177/0013164415576958
Kontakt: Thomas Welchowski, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 25.11.2025)Fehlende Werte in psychologischer Forschung: Vor- und Nachteile verschiedener Lösungsansätze
Beschreibung: In psychologischen Studien ergeben sich häufig fehlende Werte, weil Studienteilnehmer:innen Fragen unabsichtlich oder bewusst nicht beantworten oder Messungen verpassen. Mit fehlenden Werten adäquat umzugehen ist meist eine Herausforderung für Forschende. Die Bachelorarbeit soll verschiedene Lösungsansätze für den Umgang mit fehlenden Werten betrachten, wie z.B. listwise oder pairwise deletion, Imputationsverfahren (wie Mittelwertsimputation, multiple Imputation). Ziel der Arbeit ist es, diese Ansätze systematisch zu vergleichen und ihre Anwendbarkeit, Vorteile und Grenzen im Kontext psychologischer Forschung kritisch zu diskutieren.
Möglicher Einstieg:
Little, R.?J. (2024). Missing data analysis. Annual Review of Clinical Psychology, 20, 149?173. https://doi.org/10.1146/annurev-clinpsy-080822-051727
Kontakt: Marina Haller, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 24.11.2025)Äquivalenztests in der psychologischen Forschung
Beschreibung: In der psychologischen Forschung geht es oft nicht darum, Unterschiede zwischen Gruppen oder Bedingungen nachzuweisen, sondern darum, Gleichwertigkeit bzw. Äquivalenz von Interventionen, Messverfahren oder Bedingungen zu prüfen. So kann beispielsweise untersucht werden, ob eine Online-Therapie vergleichbar wirksam ist wie eine klassische Therapie. Klassische Nullhypothesentests sind für solche Fragestellungen jedoch ungeeignet: Ein nicht-signifikanter Unterschied bedeutet nicht automatisch, dass kein Effekt existiert, sondern kann auch auf eine unzureichende statistische Power zurückzuführen sein.
Äquivalenztests bieten hier eine geeignete Alternative. Sie ermöglichen es, explizit zu prüfen, ob ein beobachteter Unterschied innerhalb eines zuvor definierten Äquivalenzbereichs liegt ? also klein genug ist, um als praktisch irrelevant zu gelten. Der in der Praxis häufig eingesetzte Two One-Sided Tests (TOST)-Ansatz testet dabei, ob der wahre Effekt sowohl oberhalb der unteren als auch unterhalb der oberen Grenze dieses Bereichs liegt. Eine zentrale Herausforderung stellt die Festlegung des Äquivalenzbereichs dar, da dieser den Bereich der Effekte definiert, die noch als trivial oder irrelevant betrachtet werden.
In dieser Bachelorarbeit sollen die Grundlagen und praktischen Anwendungen von Äquivalenztests dargestellt sowie deren Unterschiede zu klassischen Hypothesentests erläutert werden. Darüber hinaus sollen Ansätze zur Bestimmung geeigneter Äquivalenzbereiche diskutiert und bewertet werden.
Referenzen:
* Lakens, D., Scheel, A. M., & Isager, P. M. (2018). Equivalence testing for psychological research: A tutorial. Advances in methods and practices in psychological science, 1(2), 259-269.
* Walker, E., & Nowacki, A. S. (2011). Understanding equivalence and noninferiority testing. Journal of general internal medicine, 26(2), 192-196.
Kontakt: David Kronthaler, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 24.11.2025)Data Leakage with Machine Learning Methods in Psychology
Beschreibung: Data leakage covers a range of errors in applied machine-learning that result in overly optimistic performance estimates. Examples of data leakage include the absence of a test set, the absence of a clear separation between the test set and the training set, a model that uses information that should not be available, and so on.
The focus of this bachelor thesis is the study of different types of data leakage. We will also study the possible procedures for fixing the leakage.
The thesis must be written in English.
Possible Starting Point:
Kapoor, S. and Narayanan, A. (2023). Leakage and the reproducibility crisis in machine-learning-based science. Patterns, 4 (9).
Kontakt: Caren Hasler, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 24.11.2025)Propensity Score Methods for Reducing the Effect of Confounding in Observational Studies.
Beschreibung: The propensity score method is a statistical technique used to estimate the effect of a treatment or intervention on a response in observational studies. It involves calculating the probability (propensity score) that a subject would receive a treatment based on observed characteristics. The use of propensity scores mimics the creation of treatments groups that are balanced in terms of known and unknown confounders.
The focus of this bachelor thesis is the study of different propensity score methods, such as matching, stratification, inverse probability weighting, and covariate adjustment. We will also study the merits and limitations of the propensity score methods.
The bachelor thesis must be written in English.
Possible Starting Points:
Lalani, N., Jimenez, R. B., & Yeap, B. (2020). Understanding propensity score analyses. International Journal of Radiation Oncology, Biology, Physics, 107(3), 404?407. https://doi.org/10.1016/j.ijrobp.2020.02.638
Austin P. C. (2011). An Introduction to Propensity Score Methods for Reducing the Effects of Confounding in Observational Studies. Multivariate behavioral research, 46(3), 399?424. https://doi.org/10.1080/00273171.2011.568786
Kontakt: Caren Hasler, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 24.11.2025)
vergeben:
- Status: vergeben (erfasst / geändert: 07.10.2025)
Kommunikation von Risiken: Eine kritische Auseinandersetzung mit den Forschungsarbeiten von Gerd Gigerenzer zum Thema Risikokommunikation
- Status: vergeben (erfasst / geändert: 07.10.2025)
Transformationen zur Erfüllung Normalverteilungsannahme: Eine systematische Übersicht
- Status: vergeben (erfasst / geändert: 07.10.2025)
Sequential designs and anytime-valid inference: A solution to the replication crisis?
- Status: vergeben (erfasst / geändert: 07.10.2025)
Sind psychologische Studien replizierbar?
- Status: vergeben (erfasst / geändert: 07.10.2025)
Open Data in der Psychologie: Eine kritische Betrachtung methodischer Aspekte
- Status: vergeben (erfasst / geändert: 26.06.2025)
Anwendungen von Machine Learning zur Textanalyse in der Psychologie
- Status: vergeben (erfasst / geändert: 26.06.2025)
Ein Überblick zu Anwendungen von Machine Learning in der Psychologie
- Status: vergeben (erfasst / geändert: 30.04.2024)
Visualizing Longitudinal Data
- Status: vergeben (erfasst / geändert: 30.04.2024)
Verwendung von Simulationsstudien in der Psychologie
- Status: vergeben (erfasst / geändert: 30.04.2024)
The link between psychological theories and statistical models of data
- Status: vergeben (erfasst / geändert: 30.04.2024)
Methoden der explorativen Faktorenanalyse
- Status: vergeben (erfasst / geändert: 30.04.2024)
Anwendungen von Machine Learning zur Textanalyse in der Psychologie
- Status: vergeben (erfasst / geändert: 27.11.2023)
Streit in der Statistik: Bayesianische vs. frequentistische Analysemethoden
- Status: vergeben (erfasst / geändert: 27.11.2023)
Analysemethoden für Daily Diary oder Daily Intervention Studies
- Status: vergeben (erfasst / geändert: 27.11.2023)
Fragwürdige Forschungspraktiken in der psychologischen Forschung und Empfehlungen zur Überwindung der aktuellen Replikationskrise
- Status: vergeben (erfasst / geändert: 06.06.2023)
Theorie und Praxis der Poweranalyse in der Psychologie
- Status: vergeben (erfasst / geändert: 06.06.2023)
Paradoxe Statistik
- Status: vergeben (erfasst / geändert: 06.06.2023)
Prädiktorenauswahl in Regressionsmodellen
- Status: vergeben (erfasst / geändert: 06.06.2023)
Messung von psychologischen Eigenschaften und Fähigkeiten: Die Rolle der Summenscores als suffiziente Statistiken im Rasch Modell
- Status: vergeben (erfasst / geändert: 06.06.2023)
Interpretationsmethoden für Machine Learning Verfahren: Ein Blick in die Black-Box?
- Status: vergeben (erfasst / geändert: 06.06.2023)
Binäre logistische Regression in der psychologischen Forschung
- Status: vergeben (erfasst / geändert: 21.11.2022)
Eine Übersicht zur Parallelanalyse
- Status: vergeben (erfasst / geändert: 30.05.2022)
Ein Überblick zu Deep Learning in der Psychologie
- Status: vergeben (erfasst / geändert: 09.11.2021)
Umgang mit Missing Data
- Status: vergeben (erfasst / geändert: 16.06.2021)
Klassifikations- und Regressionsbäume als Alternative zu parametrischen Regressionsmodellen
- Status: vergeben (erfasst / geändert: 16.06.2021)
Sind psychologische Studien replizierbar?
- Status: vergeben (erfasst / geändert: 16.06.2021)
Sequentielles Testen
- Status: vergeben (erfasst / geändert: 18.06.2020)
Ursachen und Lösungsansätze zu Publication Bias in psychologischer Forschung
- Status: vergeben (erfasst / geändert: 18.06.2020)
Ein Blick in die Black Box von Machine Learning
- Status: vergeben (erfasst / geändert: 18.06.2020)
Der p-Wert: Eine weit verbreitete und praktische Statistik?
- Status: vergeben (erfasst / geändert: 18.06.2020)
Cross-over Experimente in der Psychologie und Medizin
- Status: (erfasst / geändert: 19.12.2018)
Verfahren zur Bestimmung von Reliabilität von Fragebögen
- Status: (erfasst / geändert: 18.12.2018)
Ausreisser in der linearen Regression
- Status: (erfasst / geändert: 18.12.2018)
Sind psychologische Studien replizierbar?
- Status: (erfasst / geändert: 10.12.2018)
Variable Importance in Linear Regression: It's All Relative.
- Status: (erfasst / geändert: 10.12.2018)
The Speed-Accuracy Trade-Off: Modeling Response Times and Accuracy Simultaneously.
- Status: (erfasst / geändert: 13.07.2018)
The value of plausible values in large-scale educational assessments. What, why and when?
- Status: (erfasst / geändert: 28.06.2018)
Ein Überblick zu Netzwerkmodellen
- Status: (erfasst / geändert: 06.12.2017)
Umgang mit Messfehlern in der Psychometrie
- Status: (erfasst / geändert: 06.12.2017)
Methoden zur Berechnung der inneren Konsistenz eines psychologischen Tests
- Status: (erfasst / geändert: 06.12.2017)
Ausreisser in der linearen Regression
- Status: (erfasst / geändert: 01.12.2017)
Kann man gefälschten Forschungsergebnissen mit statistischen Mitteln auf die Schliche kommen?
- Status: (erfasst / geändert: 01.12.2017)
Klassifikations- und Regressionsbäume als Alternative zu parametrischen Regressionsmodellen
- Status: (erfasst / geändert: 02.07.2017)
Difference scores in psychological research, are they problematic? When and why (not)?
- Status: (erfasst / geändert: 02.07.2017)
Big data and data mining in psychological and educational research: more than just buzz words?
- Status: (erfasst / geändert: 23.06.2017)
Klassische Testtheorie im Vergleich zur Item Response Theorie
- Status: (erfasst / geändert: 23.06.2017)
Fehlende Daten: Unterschiedliche Formen und statistischer Umgang
- Status: (erfasst / geändert: 16.06.2017)
Methoden zur Berechnung der inneren Konsistenz eines psychologischen Tests
- Status: (erfasst / geändert: 16.06.2017)
Mittelwertsvergleiche jenseits des t-Tests
- Status: (erfasst / geändert: 08.12.2016)
Questionable research practices in psychological research and recommendations to overcome the current replicability crisis
- Status: (erfasst / geändert: 08.12.2016)
The value of plausible values in large-scale educational assessments. What, why and when?
- Status: (erfasst / geändert: 07.12.2016)
Simulationsstudien zu Faustregeln für Strukturgleichungsmodelle
- Status: (erfasst / geändert: 07.12.2016)
Umgang mit Messfehlern in der Psychometrie
- Status: (erfasst / geändert: 06.12.2016)
Die Entwicklung der methodischen Überprüfung von Testfairness
- Status: (erfasst / geändert: 06.12.2016)
Vor- und Nachteile ausgewählter Methoden der Item Response Theorie
- Status: (erfasst / geändert: 04.12.2016)
Methoden zur Berechnung der inneren Konsistenz eines psychologischen Tests
- Status: (erfasst / geändert: 04.12.2016)
Mittelwertsvergleiche jenseits des t-Tests
- Status: (erfasst / geändert: 04.12.2016)
Ursachen und Aufdeckung von Verzerrungen in Meta-Analysen
- Status: (erfasst / geändert: 04.07.2016)
Testfairness und DIF-Methoden
- Status: (erfasst / geändert: 04.07.2016)
Klassische Testtheorie im Vergleich zur Item Response Theorie
- Status: (erfasst / geändert: 04.07.2016)
Fehlende Daten: Unterschiedliche Formen und statistischer Umgang
- Status: (erfasst / geändert: 02.02.2016)
Berechnung von Konfidenzintervallen für die innere Konsistenz eines psychologischen Tests
- Status: (erfasst / geändert: 02.02.2016)
Bestimmung der Dimensionalität von Daten mit explorativer Faktoren- und Hauptkomponentenanalyse
- Status: (erfasst / geändert: 02.02.2016)
Verfahren zur Aufgabenauswahl bei adaptiver Testvorgabe
- Status: (erfasst / geändert: 02.02.2016)
Verfahren zur Prüfung der Modellpassung im Rasch-Modell
- Status: (erfasst / geändert: 08.12.2015)
Einführung in die Konstruktion von statistischen Tests und Konfidenzintervallen mit der Bootstrap-Methode
- Status: (erfasst / geändert: 08.12.2015)
Klassifikations- und Regressionsbäume als Alternative zu parametrischen Regressionsmodellen
- Status: (erfasst / geändert: 02.12.2015)
Propensity Scores zur Auswertung von quasi-experimentellen Studien
- Status: (erfasst / geändert: 04.07.2014)
Testing and Confidence Intervals in the "New" Statistics
- Status: (erfasst / geändert: 04.07.2014)
Accounting for Response Times using Diffusion Models