18.05.2018

Stack Overflow CEO Joel Spolsky: „We didn’t tell people about the job listing thing“

Interview. Stack Overflow CEO Joel Spolsky answered us some questions at the WeAreDevelopers World Congress in Vienna. 
/artikel/stack-overflow-ceo-joel-spolsky-didnt-tell-people-job-listing-thing
CEO und Co-Founder Joel Spolsky sprach am Rande des größten europäischen Developer-Kongresses WeAreDevelopers über die Entwicklung seines Portals, Veränderungen in der Developer-Szene und das Business Model Hiring.
©Stack Overflow: Joel Spolsky

The similarities between WeAreDevelopers and Stack Overflow are obvious: From the constantly growing developer community to the business model of a hiring platform. In our Interview during the conference CEO and co-founder Joel Spolsky talked about the development of his portal, coming up with a business model and trends in the developer scene.

+++ Steve Wozniak bei WeAreDevelopers: “AI wird überbewertet” +++


All over the world programming festivals and conferences like WeAreDevelopers have grown bigger and bigger. Do you have an explanation for this?

Yes. It used to be that in IT all the money was spent for hardware. There wasn’t so much for the software developers to specify in term of money. And that stuff was specified by system administrators. But today the programmers make decisions – about which API to use, which libraries to use, what cloud system to use. And that is the new purchase decision, right? Today companies find themselves paying a hundreds of thousands for a contract, because the programmer has made a programming decision. The companies find themselves asking: “Why are we paying this again?“ And the answer often is: “Well, because your whole platform is built on that.“ “When did we decide on this?“ “That was maybe 3 architects ago.“ So that’s the reason – the decisions have shifted into programmer’s decisions. 

Can you tell me a little bit about Stack Overflow’s business model as a hiring platform? When did you come up with that and how did you implement it?

We were trying to figure out how do we pay for this thing. We created Stack Overflow and we didn’t want to have, you know, animated video that displays for 30 seconds. We wanted a better system and it occurred to us that advertising for a job is not really seen as advertising – the ad is not proposing that you pay the company money – so it usually creates a more respectful tone.

The truth is: I remember, when we started Stack Overflow, Jeff (Jeff Atwood Annahme d. Red.) and I said, lets decide that everything can be public, but let’s not tell people about the job listing thing, because it was at the time not well known, that recruiting developers could be a high revenue business. And indeed, it turned out to actually be a very good business. Being able to recruit developers and sort them by where they live, what technologies they know and so on – it’s much better to do this at the place where developers actually go and not on a standalone website for getting a job.

Over time our model has developed. It started of as a very simple job listing section, then we implemented the ability to create a profile. Employers could from then on search the profiles. That created the two main parts of the job platform. Later on we added a whole bunch of recruitment branding, where you have the ability to do marketing towards developers you might employ. Over the years it has gotten more and more sophisticated. It’s a nice business and really actually benefits the platform. The developers on Stack Overflow know that the things they are doing on Stack Overflow will be seen by potential employers. So it’s a chance to show off and do an extra good job and that befits the person who is asking a question.

Stack Overflow went online in 2008. How did the work of a software developer change in those 10 years?

The biggest thing is that programmers are working at this higher level of abstraction now. They used to have one tool that they where specialists in – C or visual basic or java. And the biggest change that you see across the field of programming is APIs and cloud services and all those pieces that you can bring together very easily. That gives developers much more power. So if you want to display a map, accept credit cards or cause a drone to fly over somebody’s house, you can do that with very simple API calls and cloud services sometimes. And it’s very easy, but the trouble is, you can’t really be an expert in all these systems, because they are too complicated. So we moved into a very powerful position where we can build things out of very fancy building blocks, but we don’t really necessarily understand these building blocks. That is also where Stack Overflow is helping. I think that is the biggest change – it’s like the difference between lego blocks in the 1950s and now. 

Are there any differences today in terms of the location when it comes to working in programming? 

There is kind of a continuum of workplace formality. It starts in San Francisco with the lowest formality. It’s more formal in New York, more formal in London and once you get to Germany and Austria it’s very formal.

How does this formality manifest in workplaces?

One thing I can think about is how much autonomy programmers have and if they really are thought of creators. They are the creator. The question is wether the organization recognizes that and if they hold up the developer as the star of the show as they would in a silicon valley company. You can also see companies where they see the developers as implementing the idea of a business genius. And in fact, even if a developer is given very specific instructions, they are still making most of the decisions themselves. And those details are the ones that distinguish good products from awful ones. So one of the reasons why silicon valley is so successful is because it recognizes the developers as being in the center of creativity. 

Localized workplace vs. remote workplaces – what is your opinion on that?

We have at Stack Overflow an almost entirely remote engineering team – people that work from home. But there are two I’ll say: One is they work at the same time during the day. And second: Everybody is online. We don’t have some people online and some offline. 

I was having a conversation with somebody from IBM the other day. IBM was very famous for telling everybody about telecommunicating and remote work and all this stuff and then they changed their mind, did a huge U-turn and they said: „Yeah, actually we will try to locate every single person in IBM offices from now on.“ They didn’t have a good explanation for this. And as I was speaking to him, it became clear to me, that at IBM they didn’t distinguish between a team of 8 people in an office and then one person works from home – and all those 9 people working from their homes. Because in the case of IBM those 8 people talk at lunch, they sort things out and so on and the ninth person has a lot of trouble keeping the communication up to these 8. The 9 people that are all just working from home, they all have to go online, they will all be in online-meeting rooms and that works fine. Similarly they didn’t distinguish between team where one person is in Hyderabad, India and eight people in the US – and teams where every member is the in US. Because with that person in India you can’t have a back and forth very quickly. The first things is, you use an email, you wait for two days for the answer, send another email, you go back and forth and after a while you’re saying we’re going to have to have a phone call and in the third week somebody stays up until 2 a.m. and has this phone call. So, those two things – the time zone and everybody being online – are the important differentiators between the ability to successfully have a remote team and not successfully.

⇒ to the Stack Overflow website

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Stack Overflow CEO Joel Spolsky: „We didn’t tell people about the job listing thing“

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Stack Overflow CEO Joel Spolsky: „We didn’t tell people about the job listing thing“

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Stack Overflow CEO Joel Spolsky: „We didn’t tell people about the job listing thing“

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Stack Overflow CEO Joel Spolsky: „We didn’t tell people about the job listing thing“

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Stack Overflow CEO Joel Spolsky: „We didn’t tell people about the job listing thing“

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Stack Overflow CEO Joel Spolsky: „We didn’t tell people about the job listing thing“

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Stack Overflow CEO Joel Spolsky: „We didn’t tell people about the job listing thing“

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Stack Overflow CEO Joel Spolsky: „We didn’t tell people about the job listing thing“

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Stack Overflow CEO Joel Spolsky: „We didn’t tell people about the job listing thing“