hallo,
würde gern wissen,
bekommt man in Deutschland nach einem abgeschlossenen Studium an einer Hochschule ein Diplom?
oder nur nach einem Uni-Abschluss?
Gruß,
Xana
hallo,
würde gern wissen,
bekommt man in Deutschland nach einem abgeschlossenen Studium an einer Hochschule ein Diplom?
oder nur nach einem Uni-Abschluss?
Gruß,
Xana
Moin,
bekommt man in Deutschland nach einem abgeschlossenen Studium
an einer Hochschule ein Diplom?
ich vermute mal, Du meinst eine Fachhochschule.
Ja, bisher gabs bei denen als Abschluß meist ein Diplom.
oder nur nach einem Uni-Abschluss?
Da war es vielfältiger.
Da gabs Diplome, Staatsexamen, Magister (hab ich was vergessen?)
In Zukunft gibt es an FHen und Unis Bachelors und Masters, an den Unis zudem noch Staatsexamen.
Diplome werden im Zuge der Bologna-Reform kaum noch vergeben.
Gandalf
Hallo auch,
bekommt man in Deutschland nach einem abgeschlossenen Studium
an einer Hochschule ein Diplom?
oder nur nach einem Uni-Abschluss?
Weder noch. Der Bologna-Prozess sollte eigentlich bis 2010 vollzogen worden sein und sämtliche Diplom- und Magister-Studien durch die neuen Abschlüsse Bachelor und Master ersetzt haben. Ob es noch vereinzelte Diplom-Studien gibt, weiß ich nicht… es sollte jedenfalls nach Beschluss nicht sein.
Gruß, Leebo
Durch Bologna gibt es nur noch Bachelor, Master und für wenige Berufe Staatsexamen. Früher gab es an der Fachhochschule ein Diplom (FH) und an der Uni Diplom, Magister, Staatsexamen usw. Die genauen Details sind im Qualifikationsrahmen auch drin.