dirk hovy

22. 10. 2016, 04:59 Uhr
BLOG: I had some time and analyzed the US presidential debates from a quantitative point of view. Turns out the candidates differ even beyond their messages.
mehr…

15. 09. 2016, 06:25 Uhr
NEWS: Ich bin froh und stolz seit 1. Aug ich als Associate Professor am Informatik Institut (DIKU) der Universität Kopenhagen beschäftigt zu sein! Das Ziel einer 15 Jahre langen Reise :)


“There shall be a great confusion as to where things really are, and nobody will really know where lieth those little things with the sort of raffia-work base that has an attachment. At that time, a friend shall lose his friend’s hammer, and the young shall not know where lieth the things possessed by their fathers that their fathers put there only just the night before, about eight o’clock…”
Life of Brian

blog

Hier finden sich — in unregelmäßigen Abständen — Gedanken, Eindrücke und Updates rund um das, was ich tue. Der Blog hat daher keinerlei Anspruch auf Vollständigkeit, Aktualität oder Sinn. Ich versuche, alle Einträge in Deutsch und Englisch zu posten, aber es wird sicher immer wieder welche geben, die es nur in einer Sprache gibt. Dann war zu wenig Zeit zum Übersetzen, oder ich war schlichtweg zu faul ;)

It’s All About the He Said, She Said―A Quantitative Analysis of the Three Presidential Debates

(22. 10. 2016, 04:59 Uhr)
The question what constitutes an acceptable sentence is a matter of taste, and would elicit very different answers from a moral philosopher, a linguist, and a logician. In natural language processing (NLP), the answer is much simpler (or simplistic), and quantifiable: any sentence that could be generated with some probability from a language model.

As the US presidential debates have drawn to a close, much has been said about acceptable and unacceptable language. While NLP is woefully ill-equipped to make moral decisions on what the candidates said, it is pretty useful to analyze how much was said, and how unusual it is. So I spent an afternoon analyzing the transcripts of the three debates, and quantified the findings.

I downloaded the three transcripts, separated out the answers of the two candidates, split them into sentences, and analyzed them with a language model. Without going into to much technical detail: a language model is a statistical model which has been induced from a large collection of text. To use the model, we give it a sentence and ask “How likely is it to generate this sentence?” The model then returns a probability between 0 and 1. 0 means that the model would never produce this sentence, and 1 that it always would. In practice, neither of them really occur, but numbers are somewhere in between.

The exact numbers depend on what and how much text you used to train the model, how many words in sequence you look at, and how similar your training data was to the texts you analyze. I used a 5-gram SRILM trained on a corpus of 2,584,929 English review sentences. No, this might not be the best model one could use, and if I used it in an application, I would certainly train on something closer to the debates. However, I used the same model for all three debates and both candidates, so independent of the absolute values we get, we can compare the two politicians quantitatively.

So what do we learn?

First of all, Donald Trump says more (1950 sentences, compared to Clinton’s 1136), but he uses fewer words: the median Trump sentence has 11 words, a Clinton sentence 16. The graph below shows the relative distribution of sentence lengths for each candidate (I accounted for the fact that they uttered different amounts of sentences).

Because the bars are sometimes a little hard to see in front of each other, I also overlaid them with a smoothed curve (kernel density estimator). The dotted lines show the respective median length in words.
We can see that Trump utters more short sentences (under 15 words), and few longer sentences. Clinton, on the other hand, has a lot more of her sentences in the 15-30 word range.

What about the language model? Let’s first look at the likelihood of the sentences. Some explanation: since the probabilities get very small and hard to distinguish, the likelihood of the sentence is typically given as logarithm of the probability. That makes it a larger, but negative number. The closer the number is to 0, the more likely a sentence is under the model.

We again see some noticeable differences: Trump’s sentences are usually more likely than Clinton’s. This is both an effect of the words the two use, but also of the sentence length (longer sentences become less and less likely), and we have already seen that there are noticeable differences in sentence length.

So let’s normalize each sentence likelihood by the sentence length. That gives us the average log probability per word (note that the x-axis scale is much smaller than before).

Even here, on a per-word-basis, we see that the model is more likely to produce Trump sentences rather than Clinton sentences (you can actually use language models to generate sentences, often to great comical effect, but there isn’t enough training data for each candidate to really come up with much. I tried).

So what do the different sentences look like? Well, the two highest scoring sentences (measured by logprob/word) for each candidate are “Because I was a senator with a Republican president .” (Clinton) and “Horribly wounded .” (Trump). The most “average” sentences are “But let ’ s not assume that trade is the only challenge we have in the economy .” (Clinton) and “When we have $ 20 trillion in debt , and our country ’ s a mess , you know , it ’ s one thing to have $ 20 trillion in debt and our roads are good and our bridges are good and everything ’ s in great shape , our airports .” (Trump). Both of these buck the length-trend. The least likely sentences of each candidate, however, do follow what we have seen before: “Donald thinks belittling women makes him bigger .” (Clinton) vs. “Trump Foundation , small foundation .” (Trump).

So independent of what the candidates are talking about, the way how they talk can help us separate them to some extent. In fact, if we use only the number of words and logprob as features, we can train a logistic regression classifier that distinguishes the two candidates with an accuracy of over 65% (10-fold cross-validation). That’s only slightly better than the majority class (about 63% accuracy) and again not good enough to build a system, but interesting given that we have not even looked at what the candidates are saying.

Does this tell us anything about the likely outcome in November? No. But it shows that the differences between the candidates’ rhetoric styles go beyond what they say in a quantifiable way: sentence length and predictability.

Science’s genius complex

(06. 07. 2016, 16:27 Uhr)
In a recent article in the New Yorker, James Surowiecki outlined how, back in the 1960s, professional athletes considered strength training akin to cheating: either you were good at sports, or you weren’t―training had nothing to do with it. Practice was seen as just a way to stay in shape, not to get better. Today, this notion sounds quaint, naive, and a little bit stupid. We expect professional athletes (and any remotely serious amateurs) to have a rigorous training regimen, including fitness, nutrition, and rest schedules.

When it comes to scientists, however, we still think along the same lines as the athletes in the last century. Da Vinci, Einstein, Curie: We like to think that these people had an innate “gift”, a knack for science, that they were just brilliant and needed no training. Yes, they were extremely smart, but nothing could be further from the truth. Da Vinci and Tesla had sophisticated sleep schedules to maximize efficiency, Einstein arranged his personal life around his science (with no regard for the people around him), and Curie literally worked herself to death.

The notion of inherent brilliance, however, does not only pertain to the all-time greats. Scientists are generally portrayed as geniuses, who possess a preternatural insight and operate on a different plane from mere mortals. This is an overcome and elitist notion, and to perpetuate that stereotype is not only disrespectful to all the hard-working researchers, but also damaging to science.

Every great academic I know has indeed an unusually good understanding of their subject matter, but mostly, they do because they work a substantial amount. And the more accomplished they are, the more they work. None of them could get by on talent alone, neither to get where they are, nor to maintain that level.

There are of course no well-known training regimen for scientists (What is the equivalent of endurance training for researchers? How should one eat and rest to achieve maximum performance?)
However, many researchers I know exercise regularly, both to maintain their health, and as counterbalance to their academic routine. And while not many academics eat an athlete’s diet, many of them follow scrupulous caffeination rituals.

More importantly, though, the best researchers are constantly finding ways to identify and improve their weaknesses. And the only way to do so is by investing time. Lots of time.
A job at a prestigious university these days comes with the implicit understanding (from both sides) that you put in 80+ hours a week, not necessarily that you are brilliant. Work-life balance be damned.

This approach has some serious side effects, with alcoholism and burn-out unusually common among academics. Yet we still try to make it look easy on the outside, slave to the genius fallacy. We hope to convince people of our brilliance, while simultaneously fighting back the impostor syndrome, and wondering how the others do it so effortlessly. Truth is: they don’t.

This is even more infuriating since academia is already set up as a series of escalating training rounds, and would benefit from acknowledging that. The genius complex is holding us all back, devalues hard work, and makes it difficult for young researchers to accept their limits, to acknowledge that their accomplished colleagues got to where they are by years of hard work and scrupulous training, rather than by mere natural talent.

Sports and music have abandoned the genius notion in favor of dedicated training and hard work, and consequently, performance has improved across the board over the last few decades. And while the overall quality of science has improved by the same mechanism, we still cling to an overcome notion that brings more harm than good. It’s time we abandon it as well.

Fun with Movie Titles

(18. 09. 2015, 10:16 Uhr)
As mentioned before, I sometimes use my academic knowledge of natural language processing for purposes other than research.

A friend recently told me about an entertaining game where you gerundivize words in movie titles (i.e., you add -ing at the end) to completely change the meaning. Some of my PG-13 favorites include “Jurassic Parking”, “Ironing Man” and “2001: Spacing Oddysey” (you can get equally entertaining, yet NSFW result with other titles, but I leave that as an exercise to the reader).

Being the spoilsport I am, I decided that it would be fun to see how much NLP could help me with that. It certainly won’t be able to decide whether an altered title is funny or not (that’s how lame AI still really is), but it would at least help me generate all possible versions.

I downloaded a list of the 1000 best movies ever (at least according to The New York Times) and then took each title, went through it word by word, and checked (against the Brown corpus), whether adding ’-ing’ to the end resulted in an English word. If so, I printed it out.

The only tricky part was to deal with the spelling alterations for gerunds: -e is always removed ( “take” becomes “tak-ing”), consonants are usually doubled ( “put” becomes “put-t-ing”, but “model” becomes “model-ing”). For the latter case, I actually generate both the duplicated and a non-duplicated version (the rules for the game are not quite clear on what to do here). That’s how I got “Beverly Hills Coping”, which I think sounds much funnier than “Beverly Hills Copping”.

I didn’t check for grammaticality of the entire title, which results in nonsense such as “Alice Doesn’t Living Here Anymore”, while other results are just minor changes in meaning ( “Dial M for Murder” vs. “Dialing M for Murder”). Some of the results are pretty entertaining, though: “The Counting of Monte Cristo”, “Lasting Tango in Paris”, “Gosford Parking”, “Gone with the Winding”, “Lone Staring” (creep!), “Odd Man Outing”, “Oliver Twisting”, “Totaling Recall”, or “Body Heating”. You can download the script here and play around with it to get the full list, or modify it with your own titles.

And that’s it, I wasted another perfectly good hour using NLP for my personal entertainment.

How usable is sentiment analysis?

(18. 09. 2015, 02:57 Uhr)
Recently, I was interviewed by two students for a study on the business application of natural language processing technique called sentiment analysis. Sentiment analysis takes as input a text (which can be anything from a sentence, a tweet, or a paragraph, up to an entire document), and tries to predict the general attitude expressed therein: usually divided into positive, negative, or neutral.

For many businesses, this is an appealing application, since it promises to detect how people think about the company’s products and services, and because it can potentially be used to evaluate stock options.
However, potential and reality differ, and as far as I see it, there are currently three problems that limit the general applicability of sentiment analysis, and their commercial use:

1. The labels:
The labels are fairly coarse (positive, negative, neutral), while there is still an ongoing debate in psychology on how many basic emotions there are (see here). More fine-grained labels (Facebook let’s you label your status with more than 100 “emotions”) might provide better leverage, but the question is: what would they be? Another problem is the relation between text and labels: we recently had a paper accepted which shows that a common approach to labeling (by using ratings) is not strongly correlated with the text, i.e., models (and humans) can’t guess correctly how many stars somebody gave, only based on the review text. This is largely what we expect of our statistical approaches, though. Which brings us to the second problem:

2. The models
The models are usually trained on a particular domain (say, movie reviews), where they learn that certain features are indicative, say for movies the word ’hilarious’. However, when applied to another domain (say, restaurant reviews), this word does not at all indicate positive sentiment (a “hilarious” meal might not be what we hope for).
In technical terms, models overfit the training data. For a negative result on this, see here. Models need to be better regularized, i.e., de-biased from the training data, in order not to put too much faith in spurious features. Which finally brings us to the third problem:

3. The features
The problem of most approaches is the reliance on individual words, rather than on global sentiment and a deeper understanding of the text. Many models still rely on predefined word lists, or dictionaries, but individual words do not do the problem justice. Things like negation, sarcasm, or metaphors can completely distort the sense of a phrase, even though the individual words seem unambiguous. Even seemingly clear positive or negative words can often express both sentiments when seen in context, cf. “sincere” in “sincere answer” vs. “sincere condolences”, or “cold” in “cold look” vs. “cold beer” (see Flekova et al.). This doesn’t even begin to cover the problem that different age and gender groups express positive or negative sentiment very differently, yet that the models treat all text as coming from the same demographics.

In sum, our approaches are currently too simplistic to capture the complexity of entire texts, thus making results brittle. The over-reliance on individual words and the lack of model regularization exacerbate this problem.
This is not to say that sentiment analysis does not work at all, but all of this limits the commercial use of sentiment analysis to fairly clearly denominated domains (see also the assessment of Larson and Watson).
To improve make sentiment analysis viable for a wider range of contexts, though, we have to start improving all of the three areas above.

Wow: Such Meme, Much NLP, Very Generate!

(01. 09. 2015, 11:29 Uhr)
I love natural language processing, I really do. I think it has the potential to make the world a little bit better, and like all things worth exploring, it also has the potential to do evil. But it can be tiring wielding all this awesome technology for such serious causes, and sometimes, a man just wants to have a little fun with his subject. After all, why not get a laugh out of all the time invested?

Turns out, you can have a lot of fun with NLP, and it usually only takes a few lines of code and some data. An internet age ago (i.e., last year or so), the Doge meme took the Web by storm, and after seeing it enough, I realized that it followed a certain pattern, and that much of the humor derived from the ungrammatical use of intensifiers with certain word types (I’m a lot of fun at parties, I swear). Essentially, the pattern is
“Wow, such ADJECTIVE! Much NOUN! Very VERB!”

All I had to do now was to get all nouns, verbs, and adjectives out of an annotated corpus (I used the Brown corpus, which comes with the NLTK library), and then randomly pick one of each category to fill the slots. Oh, yeah, and I converted all verbs to their infinitive (i.e,. ’jumped’ and ’jumping’ become ’jump’).

The results range from the mundane and stupid to the insightful and funny. My favorites are the jaded look on counter culture in “Wow, such underground! Much intentions! Very smell!” and the strangely place-appropriate “Wow, such scandinavian! Much concrete! Very constitute!”

And that’s it. The entire script is 6 lines of Python code. You can download the script here and play around with it. Enjoy!

Are our models ageist?

(10. 07. 2015, 04:07 Uhr)
A number of comedies hinge on the premise of a young and an old person switching bodies. When a 45-year-old business woman says “’sup dudes?”, we find this funny (at least some of us), because it goes against our expectations of how people speak. We do have fairly clear ideas of how 45-year-old business women speak, and how teenage guys do, and that these two ways are not the same. To us, this is such a common and intuitive fact about language that breaking it intentionally can have comedic value.

For the models we use in natural language processing (NLP), however, this fact is not at all clear. To them, all language is the same, because we have not taught them about the difference. When I say “taught”, I don’t mean that we sat them down and explained how language works, of course. We train a model by presenting it with a bunch of input sentences, and with the correct output analyses we expect for them. If the machine has seen enough of these input and output pairs, it can learn a function that maps from an input sentence to the output analysis.

The problem is that almost all of these training pairs came from newspaper articles from the 80s. And that most of these articles were produced by (and for) a specific demographic, which is, broadly speaking, old, white, and male.

We would expect 60-year-old men to have difficulties understanding “the kids these days”, and so it’s no surprise that our models have exactly the same difficulties. When we give them input sentences from today’s teenagers (e.g., Twitter), they produce incorrect analyses. Of course, tweets are written very differently from newspaper articles, and so for a while now, the field has investigated the influence of the genre on performance. However, genre is not the whole picture: if we feed the models sentences from older people, they do a lot better than on sentences from younger people, even when the genre is the same for both groups.

Again, this is not too surprising, since language changes with every generation. What is surprising, however, is the depth and magnitude of this change. Younger people do not just use different words than older people. If it was that simple, we could just have the machine learn a number of new words. It turns out, however, that the differences go deeper: younger people even put their words together in ways very different from older people.

In order to test this, we ignored the actual words and looked instead at pairs of the words’ parts of speech (noun, verb, adjective, etc.) So “Dan cooks” “Mary writes” or “Frank measures” all become “NOUN VERB”. We found that in both German and English, the pairs from the older group were much more similar to the training data than the pairs of the younger group were. In other words: younger people use word combinations that are unlike anything our models have seen before. Older people don’t. Consequently, our models are much better at predicting part of speech sequences for the older group. We tested this for both German and English, with the same results.
Pairs of parts of speech are one thing, but linguistically speaking, they are still a fairly shallow phenomenon.

We also looked at the deep syntactic structure of grammatical functions (subject, verb, object, etc.), where words do not have to be adjacent, but can be on opposite ends of the sentence.
These analysis were interesting in two ways: from a linguistic perspective, and from an NLP perspective.

Linguists have suspected for a long time that syntax changes with age. However, since syntax is very complex, this was hard to prove: we can put words together in a great number of ways, and you have to observe lots and lots of examples to see even the most common ones. Even then, it is hard to pin down the exact differences, if you don’t know what constructions you are looking for. We got around both problems by analyzing millions of sentences from people whose age we know. Among those, we selected only the most frequent syntactic constructions and compared them. That way, we did not have to specify beforehand which constructions to look for. The pattern analyses was of course less than perfect (remember, our models are biased), but by analyzing large enough numbers and by focusing on frequent constructions, we were able to get enough reliable observations to find significant differences. We expect the differences to be even more pronounced if the analyses were better.

The result of all this is that even the word-order (syntax) of young people is radically different from the older group. So different, in fact, that seeing a certain construction can give the machine a good clue as to how old the person is. Just as it would us humans.
This does of course not mean that one group uses a syntactic construction and the other group doesn’t. It just means that one group uses a construction statistically significantly more often than the other group.

And the differences don’t just extend to age: we found similar differences again between men and women. What’s even more startling is the fact that these patterns occur in up to 12 different indo-european languages.

The other way in which these findings were interesting, namely for NLP, was that it showed that our models do pick up on demographic differences, albeit in a bad way. There is, however, nothing inherently ageist to the model algorithms: they are not consciously aware of these differences. They simply transform input sentences into output analyses. However, due to their training, they pick up on the language characteristics of the training data. And when the models get new inputs, they expect the language to be the same as before. This shows how brittle our models are, and how susceptible to the language characteristics (the bias) in the training data.

In fact, we found that our models not only did consistently worse on data from young people (in both German and English), but that they also performed worse and worse the more markers of African-American vernacular English (AAVE) were in a text. (They did not, however, perform worse on different genders―at least.)

So you got a bunch of bad analyses, you could say―so what!

Indeed, if it was just for academic purposes, this would be annoying, but on the whole inconsequential. However, NLP models are increasingly used as go-to tools for unstructured data analysis, both in business and political analysis. If all of these models expect language to come from old white men, and then perform poorly on texts from other demographic groups, we risk systematically ignoring or, even worse, disadvantaging these groups.

Luckily, there are ways to prevent this problem. For one, we can simply train our models on data from more and more demographic groups. In a recent paper, I showed that if we encode age and gender in the models, we get better performance, even under very controlled settings. This means that there is enough signal in the language of different demographic groups that our models can learn to differentiate, and to produce better analyses on a variety of tasks and languages.

This requires, though, that we have enough samples from all demographic groups, and their correct analyses. Both assumptions are unrealistic (for now), because collecting the data and producing the correct analyses takes a lot of time and effort. What’s more, there are dozens of demographic variables: age, gender, education, ethnicity, class, income, etc., and we are only starting to see which ones impact our models.

If we want to address the problem in earnest, we can’t afford to encode each of these variables explicitly. However, we can also just tell our models to expect demographic differences, and figure out the rest themselves.

In the future, we need to find ways to automatically detect all kinds of variations, and to reduce the impact of them on training our models. We need to teach our models that language varies along demographic lines, but that all of these variations are valid.

Not only will we improve the quality of our models, we will also produce fairer analyses that benefit everyone the same.

The papers I described can be found here, here, here, and here.

What I do: Learning whom to trust

(11. 01. 2015, 11:02 Uhr)
Here, I’ll try to explain another paper I have worked on in generally understandable terms. This time, it’s about learning whose opinion we can trust.

Say you are thinking of watching “Interstellar”. You have seen mixed reviews and want to poll your friends for an opinion. So you ask 6 people. If five say “don’t bother” and one “yay”, it’s pretty clear. This is called “majority voting”.

However, more often than not, you will get a tie, i.e., three people say “don’t bother” and three “yay”. This gets worse the more answer options there are: imagine asking six people whether to see “Interstellar”, “The Hobbit”, “Fury”, or “Unbroken”.

One way to break ties is by flipping a coin (or rolling a die, if you have more than two answer options). However, this has a 50% or higher chance of picking the wrong answer.

If you knew, however, that one of your friends simply likes all movies and always says yes, and another one has the same taste as you and said no, you would be able to weigh their answers differently. Instead of flipping a coin to break ties, you’d use a weighted average to get the best answer.

In Natural Language Processing, we often ask people for their opinion. Usually, it’s about the part of speech (noun, verb, adjective, etc) of words, or whether a sentence is positive, negative, or neutral. This is called annotation. The annotated text is then used to train statistical models. If the annotation is wrong, the models won’t work as well.

We assume that most annotators are generally trustworthy, but that some annotators get it wrong. Either because they did not pay attention to the explanation, or because they don’t care about the task and just want to get paid. If we could down-weigh bad annotators, we would get better annotations and thus better statistical models.

Unfortunately, we usually don’t know the annotators, and thus we don’t know how much to weigh each annotator’s answer. If we did, we could just compute a weighted average over the annotators and get the most likely correct answer.
If we already knew the correct answers, we could count how often each annotator gave the correct answer, and use that fraction as weight.
But we don’t know the correct answer, and we don’t know the weights, so we are stuck in a circular problem.

The way to address this circular problem is by using an algorithm called Expectation Maximization (EM). It works in two steps that are repeated until we reach a satisfying answer.
Initially, we give each annotator some random weight. In the first step, we then calculate the most likely answers based on the weights. Now we can compute how many answers each annotator got right, and assign them a weight based on that fraction. This is the second step.
With the new weights, we re-calculate how many answers each annotator gets right, and again update the weights. And again, and again. At some point, the weights don’t change much any more from round to round, and we are done. We now have weights and can compute the most likely final answers.

We also use an additional technique, called Variational Bayes EM, that essentially tells the model that people either do a good job or they don’t care, but nobody cares a little. This is called a “prior belief”, or just “prior”. Technically, this works by adding pseudo-counts, i.e., when computing how many answers each annotator got right and wrong, we add a small number (we used 0.5) to both. The reason why this works is complex, but it essentially relativizes the influence of the counts a bit, unless they are pretty strong. In the end, it prevents the model from giving too low weights to actually good annotators and improves performance.

Using the final weights for each annotator, we can compute a likelihood for each answer under the model (i.e., given that particular set of weights, how likely is a particular answer). The product of all answer likelihoods gives us a measure for how good the model is. Ideally, we would like to have a model with high likelihood.

Since we started out with random weights, there is a chance that a bad annotator ends up with a high weight. It’s a small chance, because the training process tends to correct that, but it exists. To eliminate that chance, we run the training several times, every time with different starting weights. Once a training run finishes, we measure the overall likelihood of the model. We then pick the final set of weights that resulted in the highest overall likelihood.

We implemented all this in a model and called it MACE, which stands for Multi-Annotator Competence Estimation, because a) that describes what it does and b) we thought it sounded funny to say “Learning whom to trust with MACE” (yes, this is how scientists work).

When we tested MACE on data sets where we already knew the correct answer, we found that MACE correctly finds more than 90% of the answers, while majority voting (with coin flipping to break ties) does much worse.

In real life, we of course don’t know the correct answers, but we found in several annotation projects that the MACE answers produce better statistical NLP models than when using majority voting annotations. We also found that annotators who get a low weight usually also produce bad work, while the ones with high weights produce good annotations.

Since we have probabilities for each answer, we can also choose to focus on the ones with high probabilities. If we do that, we see that the accuracy for those answers is even higher than for all. This is interesting for the case where we have some more annotations than we need, but would like to know that the ones we choose are of especially high quality.

When asking people to annotate, we can also smuggle test questions in there where we know the correct answer. These are called control items (because we can control how good the annotators are). That way, we can sort out bad apples even more accurately. If we use even just a few control items in MACE, accuracy goes up even further.

When I gave a talk about MACE, one of the listeners asked what would happen if my annotators were a bunch of monkeys: would MACE still find the “experts”? The answer is no, but it’s a good question, and we actually did test how many “good” annotators the model needs to find good answers. We simulated 10 annotators and varied the number of good ones: those would get 95% of the answers correct (this is roughly the percentage of the best annotators in real life). The rest of the simulated annotators would pick an answer at random or always choose the same value. We found that even with just 3 or four good annotators, MACE was much better in recovering the correct answer than majority voting. Luckily, in real life, it is pretty unlikely to have such a bad crowd of annotators. Just don’t use monkeys.

Whether we have control items or not, we can use MACE to get better answers for our annotation projects, and learn in the process which annotators are doing a good job.

The paper I explained here is this one, and MACE can be downloaded here.

What I do: Significance Testing

(10. 01. 2015, 08:19 Uhr)
As much as I love languages, one of the things that frustrated me in linguistics was the seeming arbitrariness of theories. There was no way of knowing which one was better than another. That did not stop people from arguing about exactly that, but there was no way of proving it.
One of the things that most drew me to natural language processing was the possibility to measure and quantify how good a model (and thereby its underlying linguistic theory) was. I was overjoyed. Unfortunately, nothing is that easy.

It turns out that the closer you look, the more difficulties there are. However, there are also solutions. One of them is significance testing. It’s very powerful, but very easy to misunderstand.

While it is easy to compare two models A and B on the same data set and decide which one is better, this says very little about which model is better in general. Model B might be better on this particular data set, but bad on all others (this is called overfitting). We can get a better picture if we compare the two models on more data sets and average over them. Most likely, however, the difference between two good models will be small.

So even if we used several data sets, there is still a chance that the difference between A and B is just due to some unaccounted peculiarities, or pure coincidence. This chance gets smaller with more data, but it does not disappear. Can we quantify that chance? This is what significance tests are for.

In general, significance tests estimate the probability that the claim that the difference between the models is not coincidence is false. I.e., how likely am I wrong when I say “the difference is not due to chance”. This probability is the p-value. A p-value of 0.01 thus means: even though we have shown that the difference between the models is not coincidence, there is a 0.01=1% chance that we were wrong. If our significance test value is lower than this 0.01, then we can say that the difference is “statistically significant at p=0.01”.

Naturally, the lower the p-value, the better. The important point is that significance is binary: either your result is significant at a certain p-value or it isn’t. This is why this list of descriptions for failed significance tests is rather hilarious.

Ok, great. So does that mean if I see a significant result at a small p-value in a paper, the model is good? Unfortunately, no. Because there are a lot of things that can influence the p-value. Here are some.

The most obvious is the test we use. Some tests only work if your data is normally distributed, i.e., if you plot the data, it looks like a bell shape. This is almost never the case in language. Most data looks like a Zipf curve, i.e., it has a steep decline and then a long tail. Any test that makes the normal-distribution assumption is thus bound to give a wrong result.

A good significance test to compare two models is bootstrap sampling: pick a random sample from the data (instances can be repeated) and compare the two models on that. Do this 10.000 times or so. Count how often B is better than A and divide that by 10.000. That’s your p-value. If the result is small, A is probably a better model.
It does not matter how your data is distributed, this gives us a good estimate.

Ok, so are we done now that we have a good test? Again, no. There are more factors, and even if we pick a certain p-value threshold and report significance, we could be wrong.

Say my models analyze sentences. Maybe I need to restrict my analyses to short sentences (say, less than 20 words) for computational reasons. If A does better than B on this sample, I still have no idea whether it will also be better on longer sentences. My significant result is thus only valid for sentences shorter than 20 words. Unless I say this explicitly, my significant result is misleading. If I wanted to deceive people into thinking my model is great, I could look at different lengths and choose to just report the one that gives me a significant result.

Another issue is the measure I use to compare the models. When analyzing the performance of two models on sentences, I can look at how many sentences each gets right, or at how many words. Or I can just look at verbs. Or rather than the correct items, I can look at the error rate of a certain category. Or a whole number of other measures. All of these can be interesting, but if I get a significant result for one measure, it does not mean I get a significant result for all the others. If I was an unscrupulous researcher, I could test all measure and then just report the ones that look best.

Typically, the larger the data and the bigger the difference, the easier to get a low p-value. Somewhat counterintuitively, this does not mean that increasing the sample size will give a significant result. Maybe I just add more examples where A and B are the same, or more where the weaker model is stronger, and so the differences wash out.

Ultimately, all that a positive significance test can tell us is that the difference between models for this particular data set, under the given conditions, for the given measure is significant at a certain level. That’s a lot of qualifications.
The best we can do under these circumstances is to use several data sets, several measures, a clear description of what conditions we used, and an appropriate significance test with a low p-value.

That way, when we say A is significantly better than B, we can be more sure that others will be able to replicate that. It’s not much. But it’s much better than guessing.

The paper I am talking about here is this one. If you got interested, please see the references for a number of other good papers on the subject.

How to be a Good Grad Student

(19. 08. 2013, 00:53 Uhr)
After almost 5 years, I am finally done with grad school! I just started a postdoc, so this is probably a good time to look back. Two friends recently asked me what my “grad school story” was. What had I learned during my PhD, apart from the obvious technical and academic skills? What were the things I wish I’d known before I started? It got me thinking: what would I tell myself if I got to go back in time? Here is what I came up with:

Take breaks
When I started grad school, I believed exhaustion, all-nighters, and 14h-days were hallmarks of a good grad student. Well, turns out they are not! I worked 12-14h every day, 8h on weekends. After 3 months, I was tired all the time and got sick on a biweekly basis (flu, stomach bugs, etc.). After 6 months, I was burned out, deeply unhappy, constantly sick, and seriously considered quitting. Worst of all: my productivity had constantly decreased. It was time to rethink my believes.
Grudgingly, I learned to accept those limitations. I concentrated productive work (coding, writing) in my peak hours, and used the rest for “busy work” (reading, setting up experiments). Good time management is one of the key skills to learn in your PhD, and one of those they never teach you. It is simply impossible to produce quality work without taking a break every now and then. I have heard estimates that you can only be really productive for 6 hours each day.
The most important part of that were the breaks! I exercised, walked, had lunch with friends, read the newspaper. I was still thinking about my work. But getting some distance from it helped me see errors I overlooked when working constantly. Cutting back on my hours not only made me happier and healthier, it also made me more productive.
It also helped me to set myself an end time. I had some of my most productive times when I was dependent on a shuttle service and could only work until 5pm. I made every minute count, and went home in the evening without regrets. I got a lot done. Working 14 hours straight did not accomplish half as much―and felt a lot worse.

Know your advisor
When I started out in grad school, I thought of my advisor as this superhuman being who knows everything. Apparently, I am not alone. This honeymoon period can last a while. Inevitably, though, everyone reaches a point where they disagree with their advisor. It can be a bit of a shock to learn that advisors are only human, too.
At the end of the day, though, it is good to remember that an advisor is the person who keeps you in business. They speak up for you in quals and screenings, vouch for you academically, introduce you to the right people, and help pay your tuition, travel expenses, and conference fees. They are busy people, and it is not their job to hold your hand, nor help you with the daily nitty-gritty. They have, however, spent a lot of time in the field and can help you find the right direction. It is up to you what you make of it, though. I know some people who have been discouraged by their advisor to pursue a project, only to find a paper on it at the next conference.
It helps to know what their strengths are and benefit from them, and find somebody else for the things they cannot teach you. The latter are often hands-on solutions and technical issues. Most of their hands-on experience is several years old and might be outdated, especially in a fast-paced field like computer science. That’s what fellow grad students are for….
It is your job to keep your advisor happy. Do the project work, help with classes, and listen to their counseling. But decide for yourself what applies to you. Part of your PhD is becoming your own researcher.

Talk to people
Even though it often felt like it, it was important for me to realize that I was not alone in the PhD! I was surrounded by other grad students and researchers, either directly or in my general community. When I started, I was lacking many of the computer science skills my peers had. I had the choice to either envy them or learn from them. The latter worked much better. I have learned more from water cooler talks and by asking colleagues than I have from most classes. I also learned a ton from collaborating on papers, and it’s less work for everyone. Internships and visits are a another great way to meet other people and get exposed to new ideas. I went to IBM and CMU, both for 3 months, and came back invigorated and full of new ideas and impressions.
Learning how to talk to people also means giving good presentations. We need to share our ideas to get plenty of feedback. It helped me to find out how others perceived my research and to check whether that’s what I wanted to convey. If they didn’t get it, I reminded myself that it was probably my fault for not explaining it well enough: the audience is always right. This is especially true when talking to non-scientist friends: if I could explain it to them, I knew I had gotten to the core of the problem (this is sometimes also called the elevator pitch: can you explain your work to someone in the time you spent together on an elevator?). It’s difficult, but it helped me to think outside the box: there is always something in your work that relates to people’s everyday experience (even if it is remote). I think it also helps with writing papers―if you can explain what your work is about in a few simple sentences, people will be more willing to read your paper. Even scientists like a simple explanation better than a convoluted one.
The more specialized my work got, the more important I found it to keep an open mind in general. I found that somebody who works on something completely different can often offer an objective view or an alternative approach to the problem. I made it a point to go to talks outside my area, read papers on related topics and general science. What others do can be as interesting as your own work (but don’t fall into the trap thinking what you do is less interesting than everybody else’s work). Also, it helped me overcome the misconception that being opinionated is equivalent to being smart. It’s an easy mistake to make, but it’s still wrong. And yes, I did it, and I’m not proud.
Last but not least, keeping an open mind helped me to learn other things as well. Even though I felt challenged with all the demands of my research, I found that over time, my mind got used to challenges. It made it easier to pick up some new non-scientific skills along the way (I learned dancing, cooking, and how to ride a motorcycle), and I’m glad I did (again: it helps to take a break sometimes).
It is impossible to be a good researcher when you never leave your room.

Get a hammer
In fact, get a whole toolbox! Early on, I was told to find an approach, algorithm, data set, resource, or other method that I liked. For me, this was the EM algorithm: I love how you can solve a circular problem (if I knew X, I could solve Y, and vice versa) by just starting out somewhere and then refining your model step by step. It’s similar to how children learn about the world, and it can help with a range of problems.
Once I had that, I started looking for problems I could solve with it. I applied it to problems you cannot solve with it. That helped me understand why it works for some and not others. I learned a lot both about the problem and my hammer. It also expanded my technical expertise and helped me produce results more efficiently (and thus write more papers).
It’s important not to get too hung up on one thing, though! Not everything is a nail, and nobody likes a zealous one-trick pony. While it sometimes seems that academia rewards single-mindedness, it often leads those people down a path of no return when the paradigm shifts or their technique becomes obsolete. I learned to accept the limitations and explored alternatives.
I tried to put as many things in my toolbox as possible, and to learn when to use them. This is an immensely fun part of the PhD, and I don’t even think I’m done yet.

Enjoy!
This is probably the most important point. When I was so fed up with the program that I considered quitting, I paused and thought about why I put myself through this. Why did I do a PhD? And for whom? I realized that I was not in it for my advisor, for my family, or society as a whole, I wasn’t doing this for others―I was doing this only for myself. Because it is what I always wanted to do! If I didn’t become the next superstar in my field, so what? I was in it because I loved it. Not every second of it, for sure, but as a whole: that was enough to make those difficult times pale to insignificance in the grand scheme of things. Around that time, I went to a talk by Tom Mitchell, on how to predict what people had read by looking at their brain images, and I remember walking out thinking “There are so many more cool things I haven’t even started on, I can’t possibly quit now” (this is another reason why it is good to keep an open mind and check out other fields).
When you’re in a PhD program, you are doing something very few people get the chance to do: you are at the cutting edge of research and work with interesting people on cool problems every day. Everybody gets down once in a while, and pretty much everybody considered quitting at some point. It’s good to remember what you’re excited about. And that you have every right to be excited!

So that’s it. This is what got me through my PhD. If I had to do it all over again, this is what I would focus on.

There are of course other good documents out there on how to make it through grad school, one of the better ones is this one by Hanna Wallach and Mark Dredze. Check it out.

MACE available for download

(05. 04. 2013, 17:22 Uhr)
Our software package MACE (Multi-Annotator Competence Estimation) is out! It provides competence estimates of the individual annotators and the most likely answer to each item. All you need to provide is a CSV file with one item per line.
In tests, MACE’s trust estimates correlated highly with the annotators’ true competence, and it achieved accuracies of over 0.9 on several data sets. Additionally, MACE can take annotated control items into account, and provides thresholding to exclude low-confidence answers. Feel free to check it out. Comments welcome!

Fake social network names won’t protect your privacy

(21. 11. 2012, 13:15 Uhr)
I have noticed that some of my friends (mostly Germans) use a fake name on social networking sites. This started a few years ago, when it became clear that a) the security of these sites isn’t exactly Fort Knox and b) their business model includes selling your data. I assume therefore that the fake names are meant to protect your private information. While I understand the sentiment, I think this is futile, and just makes it harder for your friends to find you. Here is why.

The basic problem might be anthropomorphizing companies. If we assume that social networking companies use the same approach to searching for our information as you and me, a false name could throw them off. (It would be tempting at this point to speculate about the age-old belief that knowing somebody’s name gives you power over them, but that’s beside the point here)
However, these companies don’t use humans to search for your data―they use machine learning. And for that, a fake name is just one little piece of data. One of many…

Say you just opened an account and put down a nickname. Can you ensure that all your friends will address you with that name, mention you with that name, and that you will sign all messages with it? Are all your stated relatives using the same moniker? If you ever found a long-lost friend on the site and wanted to contact, can you avoid to sent a message saying “Hey long-lost friend, this is really Dirk Hovy, I am using a nickname, but I would like to re-connect.”?
If you answered “no” to any of these, all you managed is to make it a little harder, but not impossible, to get your real name. You more or less openly provided a decryption key that voids all your attempts at keeping your name safe. Just because you put something into a private message does not mean it is invisible. It’s just data, after all.

Even if you managed to keep all of your communications under control: are you sure your account is not linked to any other sites that contain your name? Did you not sign up with this account when you bought something, have you not liked something with it, or linked it to some other account that contains your true name? If you have done any of the above, it will be the easiest thing in the world to find your true name and link it to your data. It is all a matter of connecting the dots. There are whole industries and research branches devoted to it, and the more dots there are, the easier it gets.

I’m not trying to sound Orwellian, and I don’t mean to imply that those companies are evil by their nature. But their―more or less publicly―stated objective is that in exchange for letting you use their service, they get your data and sell it for profit. They are not in it for philanthropic reasons. They have bills to pay. You implicitly bought into that model when you signed up. You might have even explicitly agreed to it, provided you read all 25 pages of the end user agreement and were able to decipher the legalese. One can object to that model, but one cannot ignore the fact that it is reality.

The most secure option is obviously to not use any social networking sites, or the internet, for that matter. While this is 100% safe, it is also not very realistic.

So in the absence of that option, it is probably better to be more aware of what we put out there, and how easily it can be found. And if it is out there, it will be found and used. Don’t try to hide from a person if a machine is looking for you.
Using a nickname just makes it hard for your friends to find you.

Trimming Papers

(25. 09. 2012, 11:54 Uhr)
Writing your papers in LaTeX is great and you should definitely do it. It makes everything better (with the possible exception of grammar), but you have to trust it with the formatting. This is where it gets tricky. Most papers have a page limit, and while LaTex makes sure everything lines up perfectly, it does not care about how many pages it takes. Trimming the paper to a certain page limit thus becomes a familiar headache before every deadline. Luckily, you don’t have to rewrite the whole paper to make the limit. Here are some simple tricks I found helpful to save a lot of space.

Don Metzler showed me a great and easy technique to trim your paper considerably:
- find all paragraphs that have three or fewer words on the last line
- shorten those paragraphs so that the last words advance into the previous line
You can leave paragraphs with more than three words on the last line alone, so instead of rewriting everything a bit, you can focus on a few paragraphs.
This only eliminates one line per paragraph, but due to the way LaTex spaces out paragraphs over the page, this actually shortens the overall paper quite a bit. Treat three or four paragraphs that way and you might cut your paper by half a page.

So, how do you shorten those paragraphs? A good way is to get rid of redundant or “empty” expressions. One that I found myself using way too often is “especially in the case of”, as in “This is annoying, especially in the case of long paragraphs”. The expression is perfectly grammatical, but we can convey the same meaning by just using “especially for”, as in “This is annoying, especially for long paragraphs”. “Especially” already singles out a special case, so we don’t have to say it again. We don’t lose any information, but save three words, and―what’s more important in LaTeX―three white spaces. LaTex spaces out words evenly across each line, mainly by varying the size of spaces (it also varies character spacing, but to a lesser degree). So having fewer characters and white spaces shortens the line, which in turn shortens the paragraph, which in turn shortens the page, which in turn allows you to keep your page limit.

Other phrases that can be shortened: verb plus nominalization, if there is a proper verb for it. I find myself using lots of these constructions. Instead of saying “we used this for our evaluation”, just make it “we evaluated this”.
The Chicago manual of Style also identifies these candidates:
“due to the fact that” = “because”
“in connection with” = “of”, “about”, or “for”
“at this (point in) time” = “now”

The best way to save space, however, is to delete useless phrases. Many papers include a paragraph which starts with “The remainder of this paper is structured as follows:…”. I automatically skip ahead if I see this. In a 8-page paper, you do not need an overview: I can get that by just flipping through. After all, that’s what section titles are for. And do sentences like “We first introduce the problem in Section 1” or “Section 5 concludes the paper” really add anything to my understanding? Do they need to tell me that the section titled “Evaluation” will “present the evaluation of the experiments”?
Leaving this overview-paragraph out saves a lot of space, and does not take anything away from the content.

Of course it’s good to pay attention to these things while writing, and express yourself as clearly and succinctly as possible. But a few of these cases will creep in anyways. And when it is time to trim the paper, they are a good starting point.
If you have more tips or suggestions, please share! Let’s make meeting page limits in LaTex less scary.

The Art of Good Presentations

(14. 09. 2012, 15:41 Uhr)
I have talked before about how important it is for scientists to express themselves well, and the most important aspect of that is to give good talks. I am far from being a good speaker, but I am a little obsessed with learning what makes one.

So I recently went to a workshop on presentation, and came away with some good tips:
- use dark background. It is much easier on the eyes of your audience, broadens your screen estate, and prevents you from casting weird shadows when you stand in front of it (some people dislike it, though, because it’s so dark)
- shape your talk like a glass: start broad and then narrow to the details (the cup of the glass), stay on them for a while (the stem), and end broadly (the foot)
- maximize the axis space of graphs to fill as much of the screen as possible. Push the legend and title into the graph area, in blank spaces
- do not use a laser pointer. If you want to point something out, circle it on the slide

One of the best ways to get better is to watch good presentations and note what they do. Here are a few presentations I particularly enjoyed, and what I think makes them interesting:
- Dick C. Hardt on “Identity 2.0”. I have no idea what “Identity 2.0” is, and I don’t think it caught on, but the rapid-fire presentation style is fascinating and easy to prepare. Though hard to pull off…
- Guy Kawasaki’s talk for entrepreneurs uses minimal slides, and a lot of great lines. Some of what he says is even relevant for presentations, but mostly, it is fun to watch and easy to follow.
- Chip Kidd talks about book covers, but he drives home an important point: show or tell, but not both―your audience is not stupid. “And they deserve better.”
- The previous talks are about big ideas, and thus a bit abstract. Hans Rosling shows how you can take hard data and make its presentation palatable and fun. This takes a lot of work in preparation, but it shows you that you don’t always need the same old boring graphs.
- Similarly, David McCandless shows how information can be conveyed in interesting and appealing ways. Maybe not always achievable for the average scientist, but worth thinking about, and looking at.

What comes through for me in all the good talks is this: keep it simple. Use pictures more than words. Your slides should be secondary to your talk. They do not need to be interpretable without you. That’s what a paper or a handout is for.

I recently tried cutting text as much as possible in my proposal talk, and got very positive feedback about the slides. It is harder for scientific presentations than for general talks, since you want to convey a lot of detail and nuances, but it helps to focus the attention. I plan to reduce to the max.

Orange Chicken

(15. 04. 2012, 22:06 Uhr)
Together with my roommate, I found a great way to prepare chicken. It cooks quickly, stays moist, and is almost impossible to mess up. I made variations of it four times during the last week. Here goes:
- Take chicken breast, pat dry and cut into small strips.
- Put strips in a ziplock bag and add salt and a few table spoons of corn or tapioca starch.
- Heat a pan, add oil.
- Shake chicken strip in a strainer to get rid of excess starch.
- Fry the chicken in pan.

You can stop here and eat the delicious, juicy chicken. The starch creates a thin layer of insulation between meat and pan, so that the chicken cooks more evenly and doesn’t dry out. You can add other spices to the starch, if you are so inclined. Allspice is pretty awesome.

Or you can go in to make an orange chicken that beats the crap out of anything you get at a Chinese fast-food restaurant:

- Mix the juice from 3 limes with the same amount of orange juice and some fermented chili sauce.
- Add to the cooked chicken strips.
- Reduce until strips are just coated with a thin film.

Enjoy!

In Other Words

(29. 03. 2012, 22:40 Uhr)
While writing on my thesis and various papers, I found that there sometimes is a disconnect between my perception and what others make of the same data. I started thinking about why that is and how it could be solved. I found a simple, yet effective solution: have other people tell you their version of the story. Here is why.

One of the most important aspects of research is communicating your ideas. It does not help the world if you are brilliant but cannot convey your thoughts. It is also one of the most difficult tasks. What you want and what your average reader wants differs slightly, and while you know your needs, in the end, it is the needs of your readers you have to cover in order to convey your idea.

By the time you are ready to publish, you have spent a lot of time setting up experiments, tweaking parameters, searching related work, and collecting data points. You have devoted a sizeable part of your life to this, you know all the details, and you are very attached to the outcome. You want the world to know how much work it was, and to be able to understand it in all its complexity.

The awful truth is: most people do not care about the details of how you reached your final results. At all. They want a take-home message they can readily understand themselves and relate to others. And they should get one!

Dwelling on the details might make your paper very reproducible, but it is also a surefire way to drive away your readers. They will soon lose interest and skip the details, trying to find what they are looking for. Or stop reading altoghether. If this happens, all your work was basically in vain. They won’t get your idea, and they won’t tell others about it.

So how can you meet your readers needs?

A solution that worked surprisingly well for me was to simply ask them. Tell your friends/colleagues the general problem, give them a few data points, and ask them what they think the paper looks like (obviously, don’t give them your version yet). You’d be surprised how much the stories can differ.

Your friends are unburdened by the details, and still able to see the forest instead of the trees. If they ask you for more information, supply it. You will learn which parts only you saw (because you spent so much time on it), and you can go back and make them clear(er).

Pay attention to how they would present your findings. What do they emphasize, what do they leave out, what is the story they spin? If they reach another conclusion, maybe you need to give them more information, or you have to re-evaluate yours. Don’t reject their outline thinking they did not understand it. If they don’t, neither will your reviewers!

If you do it with enough people, you will find things that pop up again and again, and the holes that need to be filled.

This solution is obviously not foolproof. You have to be able to let go of some parts you really liked, and you have to be able to draw attention to some important your helpers might have skipped. It can not guarantee you an accepted paper, but it will help you to make it more readable, and convey your idea better. Also, it’s a good way to let your friends know what you’re working on.

Science and Showmanship

(16. 10. 2011, 16:11 Uhr)
German researchers have drafted a position paper in which they demand science be decelerated in order to improve its quality. Their points are (Die Zeit article 4/14/2011):
- worldwide reduction of publications to allow scientists to survey the field and ensure quality
- research needs a basic funding, yet cannot be economically evaluated like a company
- funding should be based on content, not projected success
- authors should only appear on papers if they contributed to it
- scientists have to write their own grant proposals, no agencies should do that or even correct the scientists
- experiments need to be more transparent and reproducible
- good science is only possible with long-term grants

While I agree with most of the ideas (I do think that a base funding would be a Very Good Thing for a couple of less flashy disciplines, and I do agree that science should be about substance first), I take issue with the latent notion that science is too fast, too competitive, and that presentation is overrated.

Science is all about ideas, even half-baked ideas, and, more importantly, sharing them. No major work was created by one person out of thin air, but resulted from building on what other people have done before, however small it was. If those other people had waited to publish it until they thought it was complete, it might have never seen the light of day. Or, more likely, it would have, but published by somebody else, who was not as hesitant. Of course you should wait until you are reasonably sure your results are sound, but there is a point where it turns into procrastination. If you do not publish, nobody knows you are brilliant (they also won’t know if you are clueless…)

Part of a scientist’s skill set is to navigate and assess the body of work in his or her field. There are increasingly more tools to help you achieve that. Scientists know which journals are hard to get into, and which ones will print anything as long as it has a title. Researchers will assess work also based on where it is published. Both quality and quantity matter. Someone who has had only one paper in 10 years, but in Nature or Science, is not much better than someone who has cranked out four papers a year in obscure journals over the same time span. Granted, the first guy has substance, but who tells me he could do it again? With the other one I know at least what he was up to, and that his ideas were bad. Luckily, most people will lie somewhere in the midlle. So the flood of publications is actually a boon rather than a bane.
By artificially restricting the number of publications, you do not necessarily improve quality (transparency and fairness of acceptance criteria is an issue to itself), but take away a lot of breadth and information.

And, yes, science is about presentation: if your idea is too complicated to explain it, chances are it is not worth explaining anyways. Some people maintain that you should be able to explain your whole research idea during an elevator ride. A lot of the great ideas are exceedingly simple, and a lot of good papers are good because they explain their point well. A brilliant mind that cannot communicate its brilliance is no use to the academic world, least themselves. The fact that the occasional showman gets a grant although his ideas are not very deep should not stop us from rewarding good presentations!

You might not like it, but I am sure that fast, competitive, and presentable science improves our general knowledge and understanding of the world. Artificial boundaries and regulations do not. The times when researchers could sit in their study and worry about one thing for years are gone. Now, you have to go out and present it, for money, for visibility, and ultimately also for the advancement of science.

One wish

(26. 04. 2011, 18:12 Uhr)
One thing I wish I was, apart from brilliant, is to be fascinated by boring things.
Think about it: it would have so many advantages. Like that linear algebra class you had in high school when you could barely stay awake, and now you try to remember how to invert a matrix. Or the list of all the resources that everybody on you project agrees would be really useful to have, but nobody wants to actually sit down and compile it, because the thought alone makes half your brain fall asleep.

If you were excited by all of that, you could get a lot of good work done. On the downside, you might also become the go-to guy for everyone with a boring task. Hey, you can’t have everything! At least you wouldn’t be bored…

Sprachwandel

(15. 04. 2011, 12:53 Uhr)
Nach langer Überlegung habe ich beschlossen, meine Blogeinträge in Zukunft nur noch in Englisch zu schreiben.

Die Übersetzung hat einfach zu viel Zeit in Anspruch genommen, und mich in einigen Fällen sogar davon abgehalten, Einträge zu posten. Diese Einträge were ich jetzt nachholen.

Da ich weiß, dass meine deutschen Leser exzellente Englischkenntnisse haben, und somit niemand ausgelassen wird, ist das die beste Lösung.

Ihr dürft also in Zukunft mehr Einträge erwarten.

Totengedenken, 1

(20. 11. 2010, 17:44 Uhr)
Meine Großmutter konnte nichts wegwerfen. Manchmal räumten meine Mutter und ihre Schwestern den Voratsschrank aus, und meine Geschwister, Cousins und ich wetteten auf das älteste Stück. Eine zehn Jahre alte Ketchupflasche? Puddingpulver mehrere Jahre über dem Verfallsdatum? Oder irgendwas, das man noch mit Essensmarken bezahlen musste?
Meine Großmutter hatte eine andere Einstellung zu Essen. Sie hatte sechs Kinder in schwierigen Zeiten großgezogen, während und nach dem Krieg. Wenn etwas schimmelig wurde, schnitt sie die verdorbene Stelle einfach raus und erklärte den Rest für essbar. Oder aß es gleich selbst. Ich glaube nicht, dass sie jemals krank wurde. “Dreck macht Speck”, sagte sie, und meine Mutter erzählte mir später, dass sie ein Pfund Dreck pro Jahr für die empfohlene Dosis hielten. Meine Großmutter hatte auf einer Haushaltsschule kochen gelernt, und wenn ich kochen sage, meine ich gut und reichlich, nicht undbedingt raffiniert. Bei unseren Familienfeiern kochte sie für eine ganze Armee, und ihr Hackbraten und die Frikadellen waren legendär. Die von meiner Mutter waren gut, aber diese waren phänomenal. Vielleicht, weil meine Großmutter daran glaubte, dass Fett alles besser macht. Sie war eine runde Frau mit roten Backen, und in meiner Erinnerung trug sie immer das gleiche geblümte Kleid und eine graue Perücke. Sie rollte mit uns Kindern Hügel runter und konnte ihr Gebiss rausschießen lassen, sehr zu unserer nie-endenwollenden Erheiterung. Wenn wir schlechter Laune waren, gab sie uns “Lachtabletten”. Das, was andere Leute Mentos nennen.
Ihre zwei schlimmsten Erinnerungen waren die Nacht, in der sie Darmstadt bombardierten und die Pferde in ihren Ställen schrien ( “Hast du schon mal Pferde schreien hören”, fragte sie oft mit Schaudern), und der polnische Soldat, der ihre Erdbeeren klaute. Als sie alt wurde, hatte sie eine polnische Pflegerin, und ich glaube, ihre Meinung über Polen hat sich schlussendlich gebessert. Nachdem mein Großvater gestorben war, wurde sie schwermütig und redete immer davon, bald wieder mit ihm zusammen zu sein.
Sie starb nachts, ein Auge offen, mit einem erstaunten Gesichtsausdruck.
Wenn ich heute koche, denke ich oft an sie, was sie wohl gemacht hätte. Ich sammle und filtere den Schmalz, wenn ich Speck auslasse. Ich kaufe günstige Fleischstücke, Schulter und Hühnerherzen. Ich glaube, Fett macht alles besser. Wenn ich koche, koche ich für eine Armee.

New York I love you, but you’re bringing me down

(15. 12. 2009, 22:15 Uhr)
Wie all die Millionen vor mir betrat ich New York staunend. Ich hatte auf der Einfahrt in den Bahnhof Penn Station gelesen, und so war mein erster Anlick von New York als ich hinaus auf die siebte Straße trat. Es war ein klarer Mittwinter-Nachmittag, die niedrigstehende Sonne beschien die Spitzen der Hochhäuser und tauchte die Straßenschluchten in ein sanftes Licht. Ich war sofort eingenommen. Ich hatte schon lange hierher kommen wollen, und jetzt hatte es endlich geklappt.
Anders als Millionen vor mir war ich aber nicht auf der Suche nach einem neuen Leben in der Fremde, sondern nur auf einem Nachmittagsausflug aus New Jersey.

Meine erste Amtshandlung war, einen Starbucks zu finden. Ein Unternehmen, das ich mir in New York einfacher vorgestellt hatte. Letztendlich fand ich einen, bekam meinen Kaffee, und verließ den Laden via einer Hintertür, die in eine Art Eingangshalle führte. Uniformierte Pagen führten Leute herum, eine Gruppe Frauen fotografierte die Decke. Ich begann, mich zu wundern. Erst, als ich hinaus auf die Fünfte trat und die Fassade hochblickte, wurde mir klar, dass ich unwissentlich im Empire State Building gewesen war. Die sollten Schilder aufstellen…

New York unterscheidet sich sehr von LA. Zum Beispiel gibt es da keine Empire State Buildings. Außerdem wird New York von Fußgängern beherrscht. Sobald die Autos langsamer werden, sprinten sie über die Straße, egal ob rot oder grün. Wenn man das in LA macht, bekommt man einen Verweis wegen Jaywalkings. Hier bekommt man höchstens einen Verweis fürs Nicht-Walking.
Niemand fragte, wie es mir geht, oder wünschte mir einen guten Tag, und ich passte mich schnell den lokealen Gepflogenheiten an. Ich rollte mit den Augen, wenn Leute langsamer wurden, ich raunzte Menschen an, die tatsächlich anhielten um die Schaufenster zu betrachten. Ich bin mir sicher, New Yorker haben ihren schlechten Ruf wegen Angelinos auf Besuch, die es genießen, für einen Tag unfreundlich zu sein.

Ok, stimmt nicht, ich habe nichts dergleichen getan. Ohne jemanden anzusehen, stapfte ich die Straße entlang, um vor Sonnenuntergang zum Central Park zu kommen. Ich sah Macys Schaufenster und den Rockefeller Center Weihnachtsbaum. Auf der Suche nach etwa Ruhe ging ich in eine Kathedrale, die in komischem Kontrast zu den überfüllten Straßen stand, aber sogar da war es geschäftig. Ich stolperte im Eingangsbereich des Central Parks herum und hatte einen schlechten Espresso und Kakao in einem hippen Cafe. Schlussendlich schwamm ich, anonym in der Masse, den Broadway hinunter, wurde bei Penn Station angespült, und stieg in den nächsten Zug zurück nach New Jersey. Einem Staat, der viel netter ist, als sein Ruf. Vermutlich wegen Angelinos auf Besuch…

Verspätete Geburtstagswünsche

(02. 12. 2009, 20:44 Uhr)
Manchmal sieht man Dinge erst mit Abstand. Zum Beispiel Geburtstage (wer die Tage Geburtstag hatte, weiß, dass ich ein wenig länger brauche). Als die Mauer fiel, war ich acht. Damals war das nichts Besonderes. Ich erinnere mich bloß, dass alle sehr aufgeregt waren und viel fern sahen. Das kam selten vor (das Fernsehen), und musste demnach etwas Besonderes markieren. Mir wurde erklärt, dass da eine Grenze in Deutschland gewesen sei, die nun fort wäre. Das überzeugte mich wenig: wenn wir nach Frankreich in den Urlaub fuhren, war da auch eine Grenze, und das war eigenlich immer ganz lustig. Auch die Tatsache, dass man auf der anderen Seite Deutsch spricht, fand ich wenig bemerkenswert. Ich hatte eine Tante in Österreich, da war auch eine Grenze, und auf der anderen Seite sprach man Deutsch. Mit acht ist Geopolitik noch recht einfach…

Erst wenn ich jetzt zurückschaue, erscheint das alles wesentlich bemerkenswerter. Und komplexer. Deutschland und Europa sind, was sie sind, nicht zuletzt wegen jener Tage im Herbst, als meine Familie viel fernsah. Und nicht, wie hier manche glauben machen wollen, weil ein seniler ex-Schauspieler “Tear down that wall” proklamierte (noch weniger, weil ein brusthaartupierter C-Star einfältige Liedchen über Freiheit trällerte. Aber das glaubt außer ihm eh niemand). Und es ist gut, wie es ist. Zumindest ist es aus der Ferne nicht halb so schlimm, wie man es zuhause gerne sieht.

Manchmal vermisst man Dinge auch erst mit Abstand. Dinge, die man vorher kaum wahrgenommen hat oder lächerlich fand. Viele Kleinigkeiten: Lange Bahnfahrten durch waldige Hügel, Wurstwarenfachverkäuferinnen, Herbstfeuer, Bäckereien, Feierabendbier, Fachsimpeleien über Fußball, der unerschütterliche Glaube, dass man alles auf eine ganz bestimmte Art und Weise effektiv lösen kann.
Aber natürlich vor allem die Lieben, die man zurückgelassen hat, in diesem wiedervereinigten Land auf der anderen Seite des Globus.

Und ehe man sich versieht, murmelt man sentimental als Ständchen vor sich hin, was Hoffmann von Fallersleben vor knapp 170 Jahren aufgeschrieben hat, Einigkeit und Recht und Freiheit… Happy Birthday, Deutschland! Lass es dir gut gehen, und bleib, wie du bist. Bist schon in Ordnung so.

Ich sag ja, für Geburtstage brauche ich immer ein wenig länger…

Food Nerd

(24. 09. 2009, 01:00 Uhr)
Seit einiger Zeit bin ich Abonnent des Magazins “Cooks Illustrated”. Ein Freund bezeichnet es als “food porn”, aber der Schwerpunkt liegt weniger auf sensuellem Vergnügen, als auf wissenschaftlicher Analyse (man weiß, dass ein Essensmagazin es Ernst meint, wenn sie zweispaltig und nur in S/W drucken).
Rezepte werden Zutat für Zutat variiert, getestet, und die Ergebnisse protokollert, bis man das bestmögliche Resultat hat. Dazu gibt es Tricks und Tipps und Küchenwerkzeug-Bewertungen.

Mein absoluter Favorit derzeit aber ist ein Rezept für Ricotta. Super einfach, schnell, und sehr lecker! Und ein würdiger Ersatz für den unauftreibbaren Quark. Hier die Version mit europäischen Maßen (Original in Cooks illustrated Oktober 2009):

3,75l Vollmilch mit einem EL Salz auf 85°C erhitzen (ungefähr wenn die Oberfläche anfängt, sich zu wellen). Von der Flamme nehmen und 75ml Zitronensaft dazugeben. Für 5 min stehen lassen, evtl. einen EL Zitronensaft nachgeben. Wiederholen, bis sich nichts mehr an der Konsistenz ändert. Dann die Masse abschöpfen und über Nacht in ein mit einem Küchenhandtuch ausgelegten Durchschlag geben (Durchschlag in eine Schüssel stellen) und in den Kühlschrank stellen.

Am nächste Morgen hat man cremigen Ricotta (Konsistenz zwischen Quark und Hüttenkäse). Getestet in Pasta und mit Honig als Nachtisch.

Guten Appetit!

Summertime

(06. 09. 2009, 15:47 Uhr)
Und dann, plötzlich, ist es Sommer. Die Tage werden nur ein wenig heißer, aber die Nächte sind warm und mediterran. Wenn Angelenos draußen säßen, würden sie es jetzt tun. Aber die Leute entfliehen der Stadt für ein langes Wochenende, lassen die Highways ungenutzt und die Stadt sich selbst überlassen.

Feuer brennen in den Hügeln ringsum. Bei Nacht kann man ihren orangen Schein entlang der Bergrücken sehen. Bei Tag markiert eine unveränderliche Säule aus Rauch ihre Position. Sie mischt sich mit dem Smog aus Downtown und malt die Sonnenuntergänge orange und pink. Sie regnet Asche über die Stadt und riecht bis an die Küste. Und sie begrüßt die Heimkehrer, die durch sie hindurchfliegen: Du kannst für ein Wochenende fort, aber die Stadt ist immer hier. Mit den Feuern.

Genau wie der Sommer…

Science vs Engineering

(20. 08. 2009, 18:18 Uhr)
Es gibt zwei Arten von Forschern: Wissenschaftler und Ingenieure. Mit einem Problem konfrontiert, sagt der Wissenschaftler: “Wie interessant”, undbeginnt zu abstrahieren und klassifizieren, entwickelt Experimente um es zu reproduzieren, und eine Theorie um es zu verstehen.
Mit einem Problem konfrontiert, sagt der Ingenieur: “Wie können wir das lösen”, und beginnt zu messen und diskretisieren, ein Modell zu verfeinern und überarbeiten, bis es das Problem löst.
Dank der Wissenschaft, hast sich unser Verständnis des Problems erweitert. Dank der Ingenieure haben wir ein Problem weniger. Im Idealfall sollten diese beiden Disziplinen Hand in Hand arbeiten. Wissenschaftler analysieren das Problem, um es mit Blick auf mögliche Lösungen zu verstehen. Ingenieure verwenden dann dieses Wissen um das Problem effizienter zu lösen. In der Tat versuchen Wissenschaftler oft technischer yu klingen, und Ingenieure und mehr nach Wissenschaft. Aber das ist eher Wunschdenken.

In Wirklichkeit wissen die beiden Lager nur wenig und halten noch weniger voneinander. Wissenschaftler verlieren sich leicht in faszinierenden Details und produzieren Wissen, um des Wissens willen. Ingenieure sind mindestens genauso fasziniert, aber von problemspezifischen Details, und produzieren so maßgeschneiderte Lösungen für das Problem, dass sie fast bei Null anfangen müssen, wenn sie mit einer ähnlichen Aufgabe konfrontiert werden.
“Was interessiert mich, warum es funktioniert, solange es das tut”, sagt der Ingenieur. Und nicht selten geht es nur mit einigen hacks.
“Was interessiert mich, wie es funktioniert, so lange wir etwas lernen”, sagt der Wissenschaftler. Doch manchmal ist selbst das nicht garantiert. Der wichtigste Unterschied zwischen den beiden ist die Art der Ergebnisse. Ingenieurswesen verkauft sich besser, Wissenschaft―nicht so sehr.

Linguistik ist eine Wissenschaft (ich kann mich an kein Produkt erinnern, das die Linguistik hervorgebracht hätte). Computer Science ist―trotz des Namens―ein Ingenieursfach (es sei denn, es ist theoretische CS). Irgendwo in der Mitte liegt die Computerlinguistik, und dort stehe ich, winkend…
In diesem ambivalenten Feld, scheint man sich für eine Seite entscheiden zu müssen. Linguist qua Ausbildung und Natur, bin ich auf Wissenschaften gepolt. Aber um einen Doktortitel in CS zu bekommen, muss man oft Ingenieurs-Probleme lösen, die bloß eine sprachliche Komponente haben. Es ist, als ob man mich zu einem Ingenieur mit einem Hang zur Sprache machen will. Es hat mich mehr als ein halbes Jahr gekostet um zu realisieren, dass das nicht ich bin: Ich möchte die Werkezeuge der Informatik nutzen, um Sprache besser zu verstehen. Ein Wissenschaftler mit einem Hang zum Ingenieur, in etwa. Ein feiner Unterschied, aber ein wichtiger. Zumindest für die Person, die ihn macht… Aber was bedeutet das schon, solange wir die Lücke zwischne den beiden schließen können!

Dank der Ingenieure ist dies der erste Post den ich in Englisch geschrieben und dann ins Deutsche übersetzt habe. Und dank der Wissenschaft war ich in der Lage zu wissen, welche Teile richtig sind. Und warum…

Bratwurst mit Sauerkraut

(12. 08. 2009, 21:59 Uhr)
Ich liebe Essen! Und ich liebe Kochen. Vielleicht sogar mehr als essen. Wer davon überrascht ist, kennt mich nicht gut. Etwas zu kochen ist für mich weitaus spannender, als es am Ende zu essen. Vielleicht, weil es keine Geheimnisse mehr hat. Der interessanteste Teil ist herauszufinden, ob alles so geklappt hat, wie ich mir das vorgestellt hatte. Und lieber als für mich alleine koche ich für andere―je mehr, desto besser. Essen ist der direkteste Weg zu zeigen, dass man jemanden mag, und ich habe noch niemanden getroffen, der das nicht zu schätzen wusste.

Essen ist neben Sprache auch eines der salientesten Merkmale einer Kultur. Aber allzuoft entspricht das bekannteste Gericht nicht dem Alltagsessen. Wenn es um nationale K[che geht, greifen wir alle auf Stereotypen zurück: Als Deutscher liebe ich natürlich Bier, vermisse Krustenbrot, und würde alles für Blutwurst mit Sauerkraut geben.
Düster wurde mir dagegen vor meiner Ankunft in LA geweissagt, ich werde in Amerika innerhalb kürzester Zeit ein wabbelnder Fleischkloß, dank einer Diät aus Hamburgern, Donuts und Pommes. Was essen die Amerikaner schon anderes…?

Aber halt! Amerikaner mögen gutes Essen. Sie zelebrieren es! Es gibt einen TV-Sender, der nichts anderes sendet, es gibt unzählige Journale, Websites und lokale Gruppen, die Rezepte und Geheimtipps austauschen. Und Kalifornien ist besonders ideal dafür. Man bekommt alles frisch: Fleisch, Fisch, Gemüse, Obst―die Anbaugebiete sind nur ein paar Minuten Fahrt entfernt. Dementsprechend gibt es Farmer’s Markets in jedem Viertel, und die Supermärkte führen alles, was das Herz begehrt. Und zu jeder Uhrzeit.
Jede Einwanderergruppe hat ihre eigenen Rezepte mitgebracht und den hießigen Produkten angepasst, und alle gucken fleißig in Nachbars Töpfe. Amerikaner sind zwar neu auf dem internationalen Markt der Kochtraditionen, aber sie haben keine Scheu, alles auszuprobieren. Und ohne den Ballast an Tradition pickem sie sich von jedem Rezept das Beste raus und machen damit weiter.

Kalifornischer Wein kann locker mit Bordeauxs mithalten, kostet aber nur halb so viel. Und, es muss einmal gesagt werden: Amerikanisches Bier ist hervorragend! Ich habe eine Menge großartiger Biere gefunden, oft von kleinen lokalen Brauereien, die nicht exportieren. Was man in Deutschland bekommt, trinkt hier keiner. (Und nein, deutsches Bier gehört nicht automatisch zur Weltspitze. Reinheitsgebot hin oder her: manche Plörre, die ich hier aus Patriotismus gekippt habe, war keine Werbung für die deutsche Braukunst)

Downtown gibt es Restaurant mit dem schönen Namen “Wurstküche”, und dort gibt es von der Knack- und Bratwurst bis zum Klapperschlange-Kaninchen Griller alles, was man in Darm stopfen kann. Nur das mit dem Brot, das üben wir noch. Keine Kruste und schwammige Konsistenz―das kann höchstens als “brotähnliche Backwaren” durchgehen.Ich tue meinen Teil zur Aufklärung und versorge meine Kollegen mit Hausgebackenem. Mehrkorn mit Gewürzen, Koriander mit Aprikosen und Pistazien, oder Schokolade mit Cranberries―ich habe meine Palette den Geschmäckern angepasst, verteile Rezepte und warte darauf, dass es Früchte trägt. Die Reaktionen sind einhellig positiv. Einziger Rückschlag: Die Kruste sei zu kross, wurde mir gesagt. Aber da mache ich keine Kompromisse! Wie gesagt, wir üben noch…

Das Problem mit den deutschen Stereotypen nämlich ist, dass sie zwar nicht repräsentativ sind, aber alle auf mich zutreffen. Brot, Wurst und Bier? Aber hallo!
Meine gegessenen Donuts kann ich dagegen an einer Hand abzählen, für die Hamburger reichen zwei. Tatsächlich habe ich innerhalb von 3 Monaten 5kg abgenommen, allein von bewussterem Essen (und etwas Stress). Auch in Amerika gibt es Salat…

Movie Welt

(29. 06. 2009, 23:08 Uhr)
Offenbar wohne ich gerade die Straße runter von der Bar, die als Vorlage für Moe’s Taverne in den Simpsons diente. Ich werde das überprüfen…
Kann ich mit Herrn Reinsch sprechen?

Einsichten eines Clowns

(28. 04. 2009, 22:51 Uhr)
Als ich hier ankam, war meine Einstellung die gleiche wie die aller Europäer, wenn sie frisch vom Boot sind―ein Gefühl der stillschweigend angenommenen kulturellen Überlegenheit. Das gleiche Gefühl, das man gegenüber Gymnasiasten, die über Poesie reden, oder dem Neuen im Büro, der über Workflow salbadert, hegt. Erfahrung, Zeit, ja: Die Geschichte ist auf deiner Seite! Wer von einem Kontinent mit einer so vielfältigen Kultur, einer solchen Fülle von Kriegen, Hungersnöten, großen Denkern und glorreichen Künstlern kommt, muss diesen Nachzöglern an Kultur doch sicher haushoch überlegen sein? Ich lachte über “historische Gebäude”, die kaum 200 Jahre alt sind, ich schmunzelte über das Thema “amerikanische Geschichte”.

Aber in Amerika zu arbeiten ist eine ernüchternde Erfahrung. Die Leute hier stehen früh auf und gehen spät zu Bett . Da wird keine Zeit an Sentimentalität verloren, es gilt etwas zu erledigen, komme, was wolle. Das einzige, wonach du beurteilt wirst, ist deine Arbeit. Und du erkennst: Alle Belesenheit, Kultur und Geschichte kaufen dir gar nichts!
Die Menschen, die hierher kamen, taten das zumeist, weil sie ihre alten Leben zurücklassen wollten. Zusammen mit der Geschichte, der Kultur, und den Vorurteilen. Hierher zu kommen war ein sauberer Schnitt, ihre Religion und philosophischen Ansichten wurden zweitrangig neben der Fähigkeit, ein Leben für sich und ihre Familie aufzubauen. Geschichte wurde etwas, das man selber machte. Du kannst kenntnisreich über mittelalterliche Poesie, Romantik und Dialektik plaudern? Schön für dich! Und übrigens, was diesen Termin angeht…

Und außerdem, welche Art von Geschichte könnten ein deutscher und ein chinesischer Einwanderer teilen? Der erste Zeitpunkt, auf den sie sich beide beziehen könnten, ist ihre Ankunft hier. Was jeder von ihnen bis dahin als historische Fakten ansah, war für den jeweils anderen nur eine interessante Geschichte aus einem anderen Ort und einer anderen Zeit. Selbst wenn sie es nicht wollten, ließen sie so die Vergangenheit zurück, es wurde etwas, das sie mit einer kleinen Gruppe gemein hatten, etwas Privates für besondere Anlässe. Während viele Amerikaner ihre Herkunft in Ehren halten und ein Interesse an den Ländern ihrer Vorfahren hegen, tun sie es in ihrer Freizeit. Geschichte findet in der Vergangenheit statt, aber wir leben jetzt!
Und nur für den Fall, dass es eines Tages Geschichte wird, machen wir in der Zwischenzeit besser einen guten Job…

Stell dir vor…

(12. 04. 2009, 21:36 Uhr)
Stell dir die späte Vormittags-Sonne über LA vor, wie sie träge durch die offene Tür eines kleinen Hauses scheint. Als das Licht die Schwelle überquert, passiert es Wellen aus Tango-Musik, die hinaus in den Ostersonntag schweben. Wo es auf den abgewetzten Hartholz-Boden trift, streift es Beine, die elegant durch den Strahl gleiten, bewährt mit High Heels und Tanzschuhen. Auf einem Tisch in der Küche warten Bananen-Pfannkuchen, Tamales, Obst und Orangensaft auf die Tänzer.
Was für eine perfekte Art, Ostern zu begehen…

Nach Regen kommt Sonnenschein

(02. 03. 2009, 22:41 Uhr)
“Du schreibst so selten” höre ich des Öfteren. “Ich habe viel zu tun”, antworte ich dann. Das stimmt auch, aber da ist natürlich mehr. Jeder liest gerne gute Nachrichten, oder zumindest spannende. Und in den letzten Wochen gab es davon nicht viel. Nicht nur in der Weltwirtschaft, auch bei mir lief einiges unrund. Und die kalifornische Sonne lag hinter dicken Wolken.

Zurück aus Deutschland wurde mir erst so richtig bewusst, wie weit weg ich bin. Nicht nur geographisch, auch mental. Der Versuch, Leuten hier von Deutschland zu erzählen hat mir gezeigt, wie viel ich bisher als gegeben angenommen habe, wie wenig ich Dinge hinterfragt oder bewusst wahrgenommen habe. Wie funktioniert das deutsche Versicherungssystem, was genau macht der Bundespräsident, warum gibt es Haupt- und Realschulen, wo liegt der Unterschied zwischen Bundesrat und Bundestag?

Gleichzeitig bin ich hier immer noch Ausländer: ich kenne keine amerikanischen Kinderlieder, die Highschool-Hölle ist mir erspart geblieben, und bisher habe ich mir nie Gedanken über meinen Credit report gemacht. Ich habe mich, ehrlich gesagt, zwischen allen Stühlen gefühlt. Es kam mir sogar so vor, als würde mein Englisch schlechter.

Dazu kam, dass sich mein Forschungsprojekt hinzog, ich lange an meinem Stundenplan gebastelt habe und auch privat einige Dinge klar bekommen musste. Alles nichts Großes, nur in Summe zermürbend. Meine Moral war angeschlagen. Zu allem Überfluss hatte ich im Februar auch noch einen Unfall, zwar ohne körperliche Folgen, aber das Auto war hin, und das ist in LA gleichbedeutend mit Katastrophe. Damit war der Tiefpunkt erreicht.

Vielleicht gut so, denn ab da ging es bergauf. Nach einem Schock kann man offenbar manches klarer sehen: Ich habe meine Woche neu organisiert, mir Etappenziele gesetzt und mich auf weniger Dinge konzentriert, dafür auf die mit mehr Energie. Und auf einmal ging’s. Ich bin zufriedener und fröhlicher als zuvor, Job und Uni machen wieder Spaß, und die Sache mit dem Auto ließ sich auch glimpflich regeln. Die Versicherung war hilfsbereit und freundlich, viele Leute haben mir mit Rat und Tat geholfen, und seit gestern bin ich froher Besitzer eines knallroten Nissan Versa. Ich bin zwar immer noch Ausländer, aber das hat ja auch seine guten Seiten. Und ich bin damit nicht allein. Nur was das mit den Hauptschulen soll verstehe ich imme rnoch nicht…

Tja, nach Regen kommt eben Sonnenschein, auch und besonders in Kalifornien…

Have a nice Vorurteil!

(31. 01. 2009, 20:37 Uhr)
Eines der häufigsten Vorurteile gegenüber Amerika in Deutschland ist das der Oberflächlichkeit: In Amerika sei man nicht wirklich freundlich, nur an der Oberfläche. Service in Restaurants sei nur so lange zuvorkommend, bis man bezahlt habe. Natürlich: Die Begrüßung in Amerika ist wesentlich herzlicher als in Deutschland, und die Floskeln sind doch unverbindlicher. Niemand interessiert sich wirklich dafür “how I do” (Ich habe einmal versucht, das im Detail darzulegen, und wurde sehr verwundert angeguckt). Aber ist das schlechter? Ich musste mir in Deutschland wieder abgewöhnen, unbekannte Menschen auf der Straße zu grüßen, nur um nicht argwöhnisch beäugt zu werden.

Ich weiß nicht genau, was die Leute erwarten: Wenn ich jemanden im Auzug treffe, will ich nicht seine intimsten Gedanken teilen, ein “Guten Tag” reicht mir. Es tut nicht weh, etwas Nettes zu sagen, und es ist schön, eine freundliche Floskel zu hören. Wenn ich in ein Restaurant gehe, will ich keine Freunde fürs Leben machen, sondern gut bedient werden. Vielleicht noch mit einem Lächeln, warum nicht?

Und obwohl man die amerikanische Attitüde geringschätzt, ist gleichzeitig niemand stolz auf “gefühlsechten” deutschen Service: Womöglich sind die Kellner authentischer, aber wenn ich bei einem Miesepeter dreimal einen Espresso bestellen muss, um nach 20min einen zu bekommen, der dann―konsequenterweise―bei der Abrechnung vergessen wird, pfeife ich doch auf Gefühlstiefe und Authentizität! Dabei könnten die deutschen Bedienungen viel eher mal lächeln und sich des Tags freuen, immerhin wird denen nicht das zu erwartende Trinkgeld vom Mindestlohn abgezogen. Die Freundlichkeit amerikanischer Servicekräfte mag verordnet sein und zum Teil auf der Angst vor der Entlassung beruhen, aber was für einen Unterschied macht es für mich als Kunden, weshalb jemand höflich ist? Ich muss niemandes Motive analysieren, wenn man mich nett behandelt. Und dass Amerikaner durchaus zu tiefen Gefühlen und echter Freundlichkeit und Hilfsbereitschaft fähig sind, sei hier nur der Vollständigkeit halber erwähnt.

So lange es sich nur um den Alltag handelt und nicht um zwischenmenschliche Beziehungen, bin ich jedenfalls für mehr Oberflächlichkeit!
Have a nice day!

See Europe in two weeks…

(04. 01. 2009, 11:38 Uhr)
Es wird sich oft über die amerikanische Neigung lustig gemacht, Europa in fünf Tagen anzusehen ( “If it is Tuesday, this must be Paris”). Natürlich kann man die Komplexität und Nuancen eines Landes nicht in so begrenzter Zeit erfassen, aber Inzwischen verstehe ich, was dahinter steht. Wenn man nur zwei Wochen Zeit hat (und das ist ein amerikanischer Jahresurlaub), will man so viel wie möglich unterbringen. Wer gerne reist, sammelt eben Länder, und wer Menschen mag, eben Treffen.

In den letzten zwei Wochen habe ich einen Besuchsmarathon hinter mich gebracht, der mich ganz durcheinander gebracht hat ( “Wenn ich heute X treffe, muss Dienstag sein”), und immer noch habe ich nicht alle Leute gesehen, die ich gerne sehen würde. Vierzehn Tage sind eine zu kurze Zeit für all die lieben Menschen, die man in knapp drei Jahrzehnten kennenlernt…

So bleibt immer das Gefühl, nur an der Oberfläche kratzen zu können, und den Menschen nicht gerecht zu werden. Natürlich kann man die Komplexität und Nuancen einer Person nicht in so begrenzter Zeit erfassen―und trotzdem versucht man es. Denn ein kurzes Treffen ist besser als keins, und man nimmt doch so viel mehr mit, als einem Facebook oder Skype vermitteln könnten.

Falls Ihr zu denen gehört habt, die ich gesehen habe: Vielen Dank, es war wunderbar euch wieder zu sehen, trotz der knappen Zeit! Und wenn ich euch nicht gesehen habe: Seht es mir nach, es war keine böse Absicht! Nur zu wenig Zeit…
In beiden Fällen freue ich mich aber, wenn ich euch mal in LA sehe. Vielleicht, wenn ihr auf Rundreise durch Amerika seid. Wie wäre es mit einem Dienstag?

In Zungen reden

(27. 11. 2008, 17:08 Uhr)
Sprache ist eine der Sachen, die man immer mitnimmt. Egal wo, egal wann, egal, wie klein der Koffer. Unser phonologisches System kann man kaum überlisten (oder, wie Christoph sagt: “Phonologie funktioniert immer”). Wer es nicht glaubt, kann gerne mal ausprobieren, eine Stunde lang alle Ks und Fs zu vertauschen. Wer das ohne Fehler durchhält, ist ein Genie―und hat eine ganze Menge zu lachen. Ansonstent bleibt die Erkenntnis, dass man einen immer als Ausländer identifizieren kann: Deutsche Auslautverhärtung und der ganze Ärger mit “th” und “wh” sind ein eindeutiges Indiz. Und, wie ein Kollege sagte “deine Vokale sind nicht amerikanisch”.

Sprache ist eben nicht nur Syntax oder Vokabular, sondern eben auch Kleinigkeiten. Amerikanische “sch “s zischen weniger als deutsche, die Lippen sind nicht so gerundet, und die “a “s in “garden” und “aber” sind absolut nicht die selben. Innerhalb der letzten Monate bin ich wahlweise als Südafrikaner, Engländer oder eben Deutscher identifiziert worden, aber niemand hat ernsthaft geglaubt, ich sei Einheimischer.
Dafür steht einem auch als Linguist zu oft der eigene Denkapparat im Weg: Das Hirn abstrahiert, was das Zeug hält, und schmeißt alles in schöne Schubladen, ohne sich mit Details aufzuhalten. Ich habe zum Beispiel versucht, einige chinesische Worte zu lernen, aber alle meine chinesischen Bekannten haben nur höflich gelächelt―oder betrübt den Kopf geschüttelt. Selbst wenn ich dachte, ich hätte exakt wiederholt, was ich gehört habe, war es das nicht, denn Chinesen reden nicht nur in Phonemen, sondern auch in Tönen. Und die hört man als Ausländer praktisch nicht. English tut das nicht, aber fragt nicht nach Satzmelodie…
Als schwacher Trost bleibt, dass Ausländer kein echtes deutsches “ch” hinkriegen…

Und es wird schlimmer, wenn man zu Bedeutungen kommt: Ohne es zu merken, lernt man über die Jahre, Bedeutungsnuancen zu unterscheiden und anzuwenden: Sprache ist wie ein feingeschliffenes Rapier, mit dem man Bedeutungen aufspießen und Argumente gewinnen kann. Erst, wenn man versucht, in einer Fremdsprache zu argumentieren, merkt man, dass man plötzlich einen Knüppel handhabt. Jaja, man kann die grobe Bedeutungsebene abdecken, und wenn man schnell genug zuschlägt, gewinnt man auch eine Diskussion. Aber es hat keine Eleganz, keinen Stil, und allzuoft sucht man nach Worten, um seine Gedanken richtig auszudrücken.

Es gibt aber auch viele Worte, die nützliche Konzepte ausdrücken, und die ich gerne in beiden Sprachen hätte: “random” ist so ein Wort. Ich weiß, dass man das mit “zufällig” übersetzen kann, aber das ergibt in vielen Fällen keinen Sinn. “Random” bedeutet oft “ohne Zusammenhang zum Kontext, willkürlich”, aber es gibt kein gutes deutsches Wort dafür. Wie übersetzt man “That comment was so random”? Und wieso haben Englisshsprecher kein Wort für “doch”? Wie soll man vernünftig streiten können, ohne seinem Gegenüber mit einem simplen “doch” den Irrtum seines Denkens knapp vor Augen zu führen? Mir wurde auch gesagt, Englisch könne ein “jein” gut gebrauchen.

Eine der größten Schwierigkeiten in Englisch ist die Tatsache, dass es die Jahre Eigenheiten des Skandinavischen, Kontinentalgermanischen und Romanischen angenommen, in einen Topf geworfen und lustig durchgemischt hat. Da gibt es unregelmäßige Flexion, aber die dann nicht durchgängig: Es heißt goose―geese und foot―feet, nicht aber moose―meese oder wood―weed. Ich versuche, den Amerikanern diese Neuerung konsequent näherzubringen, treffe aber auf viel Unverständnis. Auch mein innovativer Gebrauch von “one shoop, two sheep” konnte sich bisher noch nicht durchsetzen.
Als einziger Ausweg erscheint mir, meine eigene Sprache zu begründen und all die wunderbaren Worte und Konzepte zu verwenden. Dann versteht mich zwar unter Garantie niemand mehr, aber das ist eben der Preis, den man zahlen muss, wenn man sich klar ausdrücken will…

Shake it, baby

(14. 11. 2008, 12:55 Uhr)
Gestern hatten wir eine Erdbeben-Übung. Um 10:00 Uhr hieß es “drop, cover, and hold on” (klingt ein wenig nach “duck and cover”). Da ich generell für diese Art Vorsorge bin, habe ich mitgemacht. Offenbar war ich damit der einizge… Nach fünf relativ langweiligen Minuten (keine schreienden Verletzten, kein Sani, der mich checkt) kam ein offenabr uneingeweihter Kollege vorbei und fragte vage besorgt, ob es mir gut ginge. Außer, dass der Platz unter meinem Schreibtisch eng, dunkel und staubig ist, tat es das. Und hätte es auch im Fall eines echten Bebens. Das heißt, wenn das Gebäude nicht einstürzt. Dann muss man neben seinem Schreibtisch kauern und hoffen, dass der Schutt eine Kammer um einen formt.
Angesichts der Tatsache, dass ich im vierten Stock eines 12stöckigen Gebäudes arbeite, bin ich nicht überzeugt, dass das viel helfen würde, aber was soll’s…
In einem Aufzug zu sein könnte besser sein, denn die schwingen frei in einem Betonschacht im Gebäudeinneren (Außenwände sind die gefährlichen). Außer, ein Feuer bricht aus oder das Kabel reißt…
Ich schätze, man muss einfach darauf vertrauen, dass die Architekten ihr Bestes gegeben haben und dass man es schafft, von Fenstern und Außenwänden wegzubleiben, wenn es wackelt. Und sollte “drop, cover and hold on” dabei helfen, umso besser.
Ich möchte es trotzdem nicht unbedingt ausprobieren…

Neues von hinter dem Spiegel

(08. 11. 2008, 17:35 Uhr)
Ich freue mich mitteilen zu können, dass die hinter meinem linken Außenspiegel wohnhafte Spinne trotz grundlegender Autoreinigung meinerseits weiterhin jeden Tag ihr Netz spinnt.
Falls ihr euch gefragt haben solltet…

Vorbei!

(04. 11. 2008, 21:36 Uhr)
Wie ein Freund sagte: “Ich glaube es erst, wenn Fox Obama ausruft”. Sen. McCain hat in einer bewegenden und fairen Rede Obamas Sieg anerkannt―und Fox hat ihn bestätigt…
Das ist es! Amerika hat einen neuen Präsidenten.
Es wird vielleicht nicht alles gut, aber hoffentlich so Einiges besser. Vielen Dank fürs Wählen, Amerika!
Ich bin ein glücklicher Ausländer…

Ur-Demokratie

(03. 11. 2008, 12:04 Uhr)
Nur noch zwei Tage, dann ist (endlich) alles vorbei. Amerika wird gewählt haben, und die nervenzerrüttende Frage, wer Präsident wird, ist endlich geklärt. Als interessierter Ausländer verfolge ich natürlich alles gespannt und nerve Freunde und Bekannten mit Fragen zum Wahlmänner-System. So richtig erklären konnte es mir bisher niemand, und scheinbar ist auch kaum jemand richtig glücklich damit, aber aus irgendwelchen Gründen bevorzugt es angeblich die Republikaner, und deswegen werden die nicht sehr begeistert für eine Änderung stimmen.

Ein Freund hier hat dieses System jetzt adaptiert und auf die Spitze getrieben: Da er nach eigener Aussage keine Präferenz hat und es unfair findet, dass viele seiner ausländischen Freunde und Bekannten nicht wählen können, hat er eine Umfrage ausgerufen. Jeder von uns konnte seine Stimme für einen Kandidaten abgeben, und das Mehrheitsergebnis entscheidet dann darüber, wen er am Dienstag wählt. Da wiederum der Gewinner alle Wahlmannstimmen des betreffenden Staates bekommt, konnten wir quasi doppelt-indirekt wählen. Vorausgesetzt, er macht seine Stimme tatsächlich vom Ergebnis abhängig…

Von den 20 Befragten haben übrigens 13 geantwortet, davon 13 für Obama, 0 für McCain. Die internationale Präferenz ist also klar.
Die Umfragen hier sagen zwar Ähnliches, aber alle sind nervös und gespannt, ob es tatsächlich reicht. Gemunkel über den Bradley-Effekt (Leute sagen aus PC, sie würden einen schwarzen Kandidaten wählen, tun es aber dann doch nicht), geplante Anschläge und schmutzige Wäsche in letzter Minute machen die Runde. Die Wahl ist also trotz allem noch offen, spannender und emotionaler als ein Krimi.

Seien wir gespannt, wie es ausgeht, und ob am Ende ein Happy End steht. Man würde es Amerika wünschen…

Ein Klassiker

(01. 11. 2008, 16:27 Uhr)
Seit der ersten Erwähnung meines Autos hier ist es leider nicht in den Genuss einer Wäsche gekommen. Nun ist L.A. aber eine sehr staubige Stadt, und daher war es an der Zeit, diesen Zusatnd zu ändern. Da traf es sich gut, dass eine Sorority des lokalen Colleges einen Car Wash in meiner Straße abhielt, um Geld für eine Blindenschule zu sammeln. Gegen schmales Geld und für einen guten Zweck das lange verdreckte Auto waschen lassen: Das sah mal nach einem ziemlich guten Deal aus.

Vielleicht ein bisschen zu gut. Ca. zwei Stunden lang war ich Besitzer eines sehr sauberen Autos―bis der lange ersehnte Regen einsetzte und alles, was an Dreck in der Luft war, reinwusch―und auf meinem Auto ablud.

Zum Ausgleich habe ich mir die Haare schneiden lassen: das war auch lange überfällig, aber es ist nicht beim nächsten Regen hinfällig.
Da hab ich’s dem Wetter aber gezeigt…

Beständigkeit

(25. 10. 2008, 19:24 Uhr)
Hinter dem linken Rückspiegel meines Autos lebt eine kleine Spinne, die jede Nacht herauskommt und zwischen Spiegel und Tür ihr Netz spinnt. Und jeden morgen, wenn ich in mein Auto steige, entferne ich das Netz wieder.
Ich habe nichts persönlich gegen die Spinne, insgeheim bewundere ich sogar ihre Beständigkeit, aber es ist zu einer Art Ritual geworden.
Vielleicht kann ich davon ja etwas lernen: Geh jeden Morgen raus und spinne dein Netz…
Vielleicht sollte ich das Auto auch einfach nur mal richtig waschen.

Immerhin…

(17. 10. 2008, 16:38 Uhr)
Die letzten Wochen waren ziemlich instensiv, was Arbeitsaufwand und Stresslevel angeht. Das wird wohl auch noch ein Zeit lang so bleiben, aber jetzt weiß ich besser, was auf mich zukommt.

Außerdem habe ich festgestellt, dass ich von meinem Bürofenster aus den Hollywood-Schriftzug sehen kann.
Immerhin etwas…

In der Stadt, die es nicht gibt…

(18. 09. 2008, 22:38 Uhr)
Ok, ich bin also in L.A. Alles hier ist groß, laut und aufregend. Ich habe inzwischen auch eine Wohnung und begleitenden Kleinkram, und das Leben läuft. Neben all der Organisation musste ich immerhin nicht noch die Stadt neu kennenlernen. Ein Vorteil. Allerdings kein sehr individueller: Wir alle kennen L.A. Wir waren alle schon einmal hier. Zumindest, wenn wir einen Fernseher hatten…

Das A-Team, Baywatch, Beverly Hills 90210 und unzählige andere Serien vermitteln alle, auch wenn sie es nicht ausdrücklich sagen, ein Bild von Los Angeles. Hollywood ist nicht einfach nur ein Ort, sondern vielmehr ein Markenzeichen―und für manche auch ein Lebensgefühl.
Musiker von Cypress Hill über die Presidents Of The USA bis Sheryl Crow oder System of a Down besingen die Stadt in ihren Lieder, erzählen vom harten Leben in South Central oder den Kneipen in Downtown, und A Tribe Called Quest beklagen in einem älteren Stück den Verlust ihrer Brieftasche in El Segundo.

Jepp, L.A. ist so, wie man sich das immer vorgestellt hatte. Wir waren alle schon einmal da, wissen wie es aussieht. Anders als Bielefeld existiert es, es ist in unser aller Köpfe. Das heißt, dass jeder eine Vorstellung davon hat, wo ich wohne. Jeder seine eigene, und in erstaunlich vielen spielen Pools eine Rolle, Stars und Sternchen, aber auch Einkaufswagen und Gangster.

Meine Wirklichkeit ist eine andere: Sicher, alles sieht so aus wie in den Filmen, und alle Orte existieren. Es gibt Gangster, es gibt Stars, und es gibt Ghettos und Glamour. Aber die Wirklichkeit ist viel unspektakulärer: Ich gehe in South Central zur Uni, El Segundo ist 15min mit dem Fahrrad entfernt, Beverly Hills und mich trennen nur ein paar Zahlen im ZIP Code, und Hollywood ein heruntergekommenes Viertel voller Touristen, Nutten und Souvenirläden. Ich wohne in zwei Städten…

Aus der Nähe betrachtet, verliert die Stadt ihren Leinwandcharakter und wird etwas ganz anderes: Ein Gewirr aus Straßen und Häusern, aus Strand und Highways. Viele kleine Städte in einer großen, alle voller interessanter, geschäftiger und meist netter Leute aus aller Herren Länder. Es ist ein Mythos, der sich gerne immer wieder selbst neu erfindet, ein unsensibler Riese mit Hang zum Drama. Diese Stadt ist ein Widerspruch in sich.

Nein, es ist sicher keine schöne Stadt, dieses L.A., aber eine aufregende und zumeist freundliche―und derzeit mein Zuhause.

Die Kunst des Widerspruchs

(08. 09. 2008, 21:49 Uhr)
Lese derzeit in einem Buch, dass feststellt, es sei wichtig, sich nicht zu wiederholen.
Zur Sicherheit sagen sie es einem mehrmals…

Mein Haus, mein Auto, mein…

(24. 08. 2008, 17:22 Uhr)
“Als ich ankam, hatte ich gerade mal zwei Koffer mit dem Nötigsten, und heute gehört mir…”

Wir alle kennen die Geschichten, die so anfangen. Sie gehören―ebenso wie der reiche Onkel und der Tellerwäscher-zu-Millionären―zu dem alten Topos Amerika.
In meinem Fall ist die Geschichte noch nicht so spannend―ich habe keine weltumspannendes Imperium begründet und keine Villa mit Starblick in Beverly Hills gekauft. Tatsächlich habe ich immer noch kein Zimmer. Aber auch meine Besitzstand ist seit den zwei Koffern etwas angewachsen.

Seit gestern nenne ich ein neues iPhone und―leihweise―ein altes Auto mein Eigen. Was dem Auto an Glamour fehlt, das macht das iPhone wett: Es ist schick, es ist glänzend, es ist einfach zu bedienen ab dem ersten Einschalten―und es frisst Strom wie nicht gescheit. Im Gegensatz dazu ist das Auto allerdings energie-effizient, ein alter Honda, der nicht viel schluckt.

Mit beidem liege ich―ich schäme mich, das sagen zu müssen―ziemlich im L.A.-weiten Trend: Während die Straßen hier letztes Jahr noch voll von Autos waren, deren Starten schon mehr Benzin verbrauchte als ein Wochenendtrip in Europa, ist kleine und sparsam jetzt das neue cool. Und mit der radikalen Entschlossenheit, die Amerikaner und besonders Kalifornier auszeichnet, haben sie das Aussehen ihrer Straßen geändert.
Ich wage es nicht, den Leuten zu erklären, dass sie immer noch die Hälfte des Benzinpreises in Deutschland zahlen―wenn sie sich in den Kopf gesetzt haben, energiebewusster zu handeln, will ich sie nicht aufhalten. Mein Auto passt rein, und mein Gewissen kann beruhigt sein. Aber ist mein Telefon auch wirklich grün?

Da bin ich also angekommen in der Welt der Besitzenden und all der damit verbundenen moralischen Fragen. Alles, was mir jetzt noch fehlt, ist eine Wohnung, um alles reinzutun. Und ein moralischer Leitfaden für den Einkaufszettel…

Frag nicht nach Sonnenschein…

(22. 08. 2008, 02:46 Uhr)
Eine der am häufigsten an mich gerichteten Fragen der letzten Tage ist die nach dem Wetter. Verständlich, wenn man aus einem Land kommt, in dem es dank veränderlicher meteorologischer Bedingungen so etwas wie Wetter gibt.

Hier in L.A. aber ist der Wetterbericht ungefähr so spannend wie Wahlergebnisse in einem totalitären Regime: Jeder weiß schon vorher, was rauskommt. In dem Fall: 25°C plusminus 3, morgens und abends etwas kühler.

Das klingt erst mal toll, aber nach ein paar Tagen hat man sich daran gewöhnt. Man weiß auch, dass die morgendlichen Wolken bis zum Mittag verschwunden sind und man keinen Schirm einpacken muss.
So aufregend die Stadt ansonsten sein mag, was Wetter angeht, ist sie eher langweilig.

Immerhin hat man so genug Zeit, sich Sorgen über andere Sachen als Regenschirme und warme Socken zu machen. Zum Beispiel über Formulare. Aber das ist eine andere Geschichte. Frag nicht nach Sonnenschein…

Babel

(16. 08. 2008, 16:00 Uhr)
Well, I knew that das passieren würde, but when it strikes, you feel immer a little lost. After zwei oder three Tagen, your Gehirn does not know genau, which language to take. Es ist no longer German, aber it ist not yet Englisch. You concentrate on eine Sprache, but you keep switching back und vor.
It does nicht mal help if your host understands beide Sprachen, because you will not know, welchen Ausdruck man what zuordnen muss. I feel wie ein Aphasiker, der things zwar beschreiben can, yet is unable to recollect the Namen. It is schlimm genug, einen expression in the foreign language nicht zu wissen, yet I forgot them in either der beiden Sprachen!
At least this will sort sich out after a few days, aber until then I will re-enact the babylonian Sprachgewirr in meinem head…

Angekommen

(14. 08. 2008, 19:15 Uhr)
Nach langem Hin und Her, viel Warten und noch mehr Formularen bin ich endlich in Los Angeles angekommen. Es kann losgehen…

Gepackt

(14. 08. 2008, 16:28 Uhr)
Zwei Koffer. Das ist alles. Zwei Koffer, jeder maximal 32kg, mehr erlaubt die Fluglinie nicht. Zwei Koffer um alles mitzunehmen, was man so braucht, plus dem, was den Unterschied zwischen Verreisen und Leben ausmacht.
Es ist merkwürdig, sein ganzes bisheriges Leben auf ein Packmaß und ein Gewicht reduzieren zu müssen, aber es bleibt einem wenig anderes übrig...

This Website is also available in English

Valid XHTML 1.0 Transitional Valid CSS!