Skip to main content

Vorbild Gehirn – Randbedingungen für eine kognitive Architektur

  • Chapter
  • First Online:
  • 5448 Accesses

Part of the book series: Edition Informatik Spektrum ((EIS))

Zusammenfassung

Um menschliche Kognition als emergentes Phänomen verstehen zu können, müssen zwei Fragen beantwortet werden: Was ist das gemeinsame Datenformat aller kognitiven Strukturen und durch welchen Mechanismus wird dieses Datenformat geformt? Für die Beantwortung dieser Fragen dürfte es nützlich sein, sich von Wissen über Strukturen und Vorgänge im Gehirn, dem einzigen existierenden Modell für Kognition, leiten zu lassen. Als Datenformat werden hier strukturierte Netze vorgeschlagen, die durch den gut untersuchten Vorgang der Netzwerk-Selbstorganisation gebildet werden, und wichtige kognitive Prozesse werden auf dieser Basis diskutiert. Der Artikel setzt sich mit einigen der das Gebiet beherrschenden Vorurteile auseinander.

Vollständig überarbeiteter und erweiterter Beitrag basierend auf von der Malsburg, C.: Die Geschichte unserer Geburt, Informatik Spektrum (2018) 41(2): 85–87

This is a preview of subscription content, log in via an institution.

Buying options

Chapter
USD   29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD   59.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever

Tax calculation will be finalised at checkout

Purchases are for personal use only

Learn about institutional subscriptions

Notes

  1. 1.

    Diese virtuelle Realität müsste als vollgültige Lernumgebung alle Sinne umfassen. Praktikabel und sinnvoll wäre ein solches Unterfangen nur für lernende Roboter. Das ändert aber nicht wesentlich die Abschätzung des benötigten Programmumfangs.

  2. 2.

    Um eines der 1010 Neuronen zu adressieren braucht es ld(1010) = 33 bit. Für die 1014 Synapsen des Grosshirns braucht es daher 3.3 × 1015 bit.

  3. 3.

    Es ist nicht zu erwarten, dass sich dies im Laufe der Jahre ändert, etwa das Erwachsenengehirn von von aussen absorbierter Information dominiert sein könnte. Es gibt Argumente und Abschätzungen, dass der Mensch nur etwa ein bit an Information pro Sekunde in sein permanentes Gedächtnis absorbiert (Landauer 1986).

  4. 4.

    Bewusstsein bedeutet übrigens allgemeiner die Aktivierung eines Quorums von funktionellen Komponenten (etwa Agenda und Emotionen, Repräsentation der eigenen Person, Repräsentation der physischen Umgebung, Gedächtnis, Sprache) und die Integration derselben zu einem funktionellen Ganzen (von der Malsburg 1997).

  5. 5.

    Im Fall des Verstehens von Bildern dreidimensionaler Objekte gehört dazu auch Abstraktion von der Pose, der dreidimensionalen Orientierung des Objekts. Nach einem Vorschlag zur Behandlung dieses Problems, siehe z. B. Biederman (1987), werden Objekte gedacht als in ein Alphabet bekannter Objektkomponenten (genannt geons, primitives oder generalized cylinders) zerlegt, für die das System bereits gelernt hat, wie sich ihr Aspekt und wie sich ihre Lagebeziehungen bei Tiefenrotation verändern.

Literatur

  • Amari S (1977) Dynamics of pattern formation in lateral-inhibitory type neural fields. Biological Cybernetics, 27(2):77–87.

    Article  MathSciNet  MATH  Google Scholar 

  • Anderson C, Van Essen D (1987) Shifter circuits: a computational strategy for dynamic aspects of visual processing. Proceedings of the National Academy of Sciences of the United States of America 84:6297–6301.

    Article  Google Scholar 

  • Arbib M (1992) Schema theory. The Encyclopedia of Artificial Intelligence, 2:1427–1443.

    Google Scholar 

  • Barlow H (1972) Single units and sensation: A neuron doctrine for perceptual psychology. Perception, 1:371–394.

    Article  Google Scholar 

  • Bartlett F (1932) Remembering, A Study in Experimental and Social Psychology. Cambridge University Press, Cambridge.

    Google Scholar 

  • Bergmann U, von der Malsburg C (2011) Self-organization of topographic bilinear networks for invariant recognition. Neural Computation, 23(11):2770–2797.

    Article  Google Scholar 

  • Biederman I (1987) Recognition-by-components: a theory of human image understanding. Psychological Review, 94(2):115–147.

    Article  Google Scholar 

  • Bolder B (2005) Coordination of an artificial visual system with biological models, PhD thesis, Ruhr-University Bochum.

    Google Scholar 

  • Brendel W, Bethge M (2019) Approximating CNNs with bag-of-local-features models works surprisingly well on imagenet. International Conference on Learning Representations (ICLR).

    Google Scholar 

  • Bürglin T, Affolter M. (2016) Homeodomain proteins: an update. Chromosoma 125:497–521.

    Article  Google Scholar 

  • Consortium TIHGM (2001) A physical map of the human genome. Nature, 409:934–941.

    Article  Google Scholar 

  • Crytek (2017) Robinson: The journey. https://www.crytek.com/games/robinson.

  • Erlhagen W, Bicho E (2006) The dynamic neural field approach to cognitive robotics. Journal of Neural Engineering, 3, R36. http://stacks.iop.org/1741-2552/3/i=3/a=R02.

    Article  Google Scholar 

  • Fernandes T, von der Malsburg C (2015) Self-organization of control circuits for invariant fiber projections. Neural Computation, 27(5):1005–1032.

    Article  MathSciNet  MATH  Google Scholar 

  • Fleck L (1935) Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Schwabe, Basel.

    Google Scholar 

  • Geman S, Bienenstock E, Doursat R (1992) Neural networks and the bias/variance dilemma. Neural Computation, 4:1–58.

    Article  Google Scholar 

  • Goodhill G (2007) Contributions of theoretical modeling to the understanding of neural map development. Neuron, 56(2):301–311.

    Article  Google Scholar 

  • Grabska-Barwinska A, von der Malsburg C (2008) Perinatal ontogenesis of orientation specificity and maps in primary visual cortex of higher mammals. Journal of Neuroscience, 28:249–257.

    Article  Google Scholar 

  • Grossberg S (1980) How does a brain build a cognitive code? Psychological Review, 87:1–51.

    Article  Google Scholar 

  • Hebb D (1949) The Organization of Behavior, Wiley.

    Google Scholar 

  • Hinton G (1981) A Parallel Computation that Assigns Canonical Object-Based Frames of Reference. International Joint Conference on Artificial Intelligence, pp. 683–685.

    Google Scholar 

  • Hopfield J (1982) Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences, 79(8):2554–2558.

    Article  MathSciNet  MATH  Google Scholar 

  • Hubel D, Wiesel T (1977) Ferrier-lecture: Functional architecture of macaque monkey visual cortex. Proceedings of the Royal Society London, Series B, 198:1–59.

    Google Scholar 

  • Häussler A, von der Malsburg C (1983) Development of retinotopic projections – an analytical treatment. Journal of Theoretical Neurobiology, 2:47–73.

    Google Scholar 

  • Isaacson J, Scanziani M (2011) How inhibition shapes cortical activity. Neuron, 72(2):231–243.

    Article  Google Scholar 

  • Jug F, Cook M, Steger A (2012) Recurrent competitive networks can learn locally excitatory topologies. Proceedings of International Joint Conference on Neural Networks, pp. 1–8.

    Google Scholar 

  • Kant I (1781) Kritik der reinen Vernunft, Kap. Von dem Schematismus der reinen Verstandesbegriffe. gutenberg.spiegel.de/buch/kritik-der-reinen-vernunft-2-auflage-3502/1.

    Google Scholar 

  • Kree R, Zippelius A (1988) Recognition of topological features of graphs and images in neural networks. Journal of Physics, A21:813–818.

    MathSciNet  MATH  Google Scholar 

  • Krizhevsky A, Sutskever I, Hinton G (2012) Imagenet classification with deep convolutional neural networks. Advances in Neural Information Processing Systems, 25:1097–1105. http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.p.

    Google Scholar 

  • Kuhn T (1962) The Structure of Scientific Revolutions. University of Chicago Press.

    Google Scholar 

  • Landauer T (1986) How much do people remember? some estimates of the quantity of learned information in long-term memory. Cognitive Science, 10(4):477–493.

    Article  MathSciNet  Google Scholar 

  • Li M, Vitányi P (2008) Preliminaries, in: An Introduction to Kolmogorov Complexity and Its Applications. Springer New York, NY, pp. 1–99.

    Chapter  MATH  Google Scholar 

  • McFarland D (1999) Biologie des Verhaltens. Evolution, Physiologie, Psychobiologie. Spektrum Akademischer Verlag, Heidelberg, Berlin.

    Google Scholar 

  • Minsky M (1974) A framework for representing knowledge. Technical Report, 306, MIT AI Laboratory.

    Google Scholar 

  • Olshausen B, Anderson C, Van Essen D (1993) A neurobiological model of visual attention and invariant pattern recognition based on dynamic routing of information. Journal of Neuroscience, 13(11):4700–4719.

    Article  Google Scholar 

  • Riseman E, Hanson A (1992) A Methodology for the Development of General Knowledge-Based Vision Systems. Springer Berlin Heidelberg, Berlin, Heidelberg, pp. 293–336.

    Google Scholar 

  • Roskies A (1999) The binding problem. Neuron, 24:7–9.

    Article  Google Scholar 

  • Schank R, Abelson R (1977) Scripts, plans, goals and understanding: An inquiry into human knowledge structures. Erlbaum, New Jersey.

    MATH  Google Scholar 

  • Stringer S, Trappenberg T, Rolls E, de Araujo I (2002) Self-organizing continuous attractor networks and path integration: one-dimensional models of head direction cells. Network: Computation in Neural Systems, 13(2):217–242.

    Article  MATH  Google Scholar 

  • Turing A (1936) On computable numbers, with an application to the Entscheidungsproblem. Proceedings of London Mathematical Society, 2–42:230–265.

    MathSciNet  MATH  Google Scholar 

  • von der Malsburg C (1973) Self-organization of orientation sensitive cells in the striate cortex. Kybernetik, 14:85–100.

    Article  Google Scholar 

  • von der Malsburg C (1979) Development of ocularity domains and growth behaviour of axon terminals- Biological Cybernetics, 32:49–62.

    Article  Google Scholar 

  • von der Malsburg C (1981) The correlation theory of brain function. Internal report, 81-2, Max-Planck-Institut für Biophysikalische Chemie, Postfach 2841, 3400 Göttingen, FRG. Reprinted in Domany E, van Hemmen JL, Schulten K (Hrsg.) Models of Neural Networks II, chapter 2, pp. 95–119. Springer, Berlin, 1994.

    Google Scholar 

  • von der Malsburg C (1985) Nervous structures with dynamical links. Berichte der Bundengesellschaft für physikalische Chemie, 89(6):703–710.

    Article  Google Scholar 

  • von der Malsburg C (1986) Am I thinking assemblies? In Brain Theory. Proceedings of the Trieste Meeting on Brain Theory, 1–4 October 1984, Springer, pp. 161–176.

    Google Scholar 

  • von der Malsburg C (1987) Ist die Evolution blind? Küppers BO (Hrsg.) Ordnung aus dem Chaos, Piper, München, pp. 269–279.

    Google Scholar 

  • von der Malsburg C (1994) Network self-organization in the ontogenesis of the mammalian visual system. Zornetzer S, Davis J, Lau C (Hrsg.) An Introduction to Neural and Electronic Networks. Second Edition. Academic Press, pp. 463–447.

    Google Scholar 

  • von der Malsburg C (1997) The coherence definition of consciousness, in Ito M, Miyashita Y, Rolls ET (Hrsg.) Cognition, Computation and Consciousness. Oxford University Press, pp. 193–204. URL: http://cogprints.org/1487/.

  • von der Malsburg C (2018a) Concerning the neural code. Journal of Cognitive Science, 19:511–550.

    Article  Google Scholar 

  • von der Malsburg C (2018b) Vision as gateway to the brain. https://platonite.com/vision-as-gateway-to-the-brain.

  • von der Malsburg C, Bienenstock E (1987) A neural network for the retrieval of superimposed connection patterns. EPL (Europhysics Letters), 3(11):1243. http://stacks.iop.org/0295-5075/3/i=11/a=015.

    Article  Google Scholar 

  • Willshaw D, Longuet-Higgins H (1970) Associative memory models. Machine Intelligence, 5:351–359.

    MATH  Google Scholar 

  • Willshaw D, von der Malsburg C (1976) How patterned neural connections can be set up by self-organization. 194:431–445.

    Google Scholar 

  • Willshaw D, von der Malsburg C (1979) A marker induction mechanism for the establishment of ordered neural mappings: its application to the retinotectal problem. Philosophical Transactions of the Royal Society of London, Series B:287:203–243.

    Article  Google Scholar 

  • Wilson H, Cowan J (1972) Excitatory and inhibitory interactions in localized populations of model neurons. Biophysical Journal, 12:1–24.

    Article  Google Scholar 

  • Winograd T (1971) Procedures as a representation for data in a computer program for understanding natural language. Technical Report, 235, MIT AI.

    Google Scholar 

  • Wolfrum P, Wolff C, Lücke J, von der Malsburg C (2008) A recurrent dynamic model for correspondence-based face recognition. Journal of Vision, 8(7):34.

    Article  Google Scholar 

  • Wolpert D, Mcready W (1997) No free lunch theorems for optimization. IEEE Transactions on Evolutionary Computation, 1(1):67–82.

    Article  Google Scholar 

  • Zhu J, Bergmann U, von der Malsburg C (2010) Self-organization of steerable topographic mappings as basis for translation invariance. International Conference on Artificial Neural Networks (ICANN 2010), pp. 414–419.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Christoph von der Malsburg .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2020 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

von der Malsburg, C. (2020). Vorbild Gehirn – Randbedingungen für eine kognitive Architektur. In: Portmann, E., D'Onofrio, S. (eds) Cognitive Computing. Edition Informatik Spektrum. Springer Vieweg, Wiesbaden. https://doi.org/10.1007/978-3-658-27941-7_1

Download citation

Publish with us

Policies and ethics